JP2006341075A - Signal processor for biological observation system - Google Patents

Signal processor for biological observation system Download PDF

Info

Publication number
JP2006341075A
JP2006341075A JP2006077759A JP2006077759A JP2006341075A JP 2006341075 A JP2006341075 A JP 2006341075A JP 2006077759 A JP2006077759 A JP 2006077759A JP 2006077759 A JP2006077759 A JP 2006077759A JP 2006341075 A JP2006341075 A JP 2006341075A
Authority
JP
Japan
Prior art keywords
color
spectral
image
unit
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006077759A
Other languages
Japanese (ja)
Inventor
Kazuhiro Atono
和弘 後野
Mutsumi Oshima
睦巳 大島
Shoichi Amano
正一 天野
Tomoya Takahashi
智也 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Medical Systems Corp
Original Assignee
Olympus Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Medical Systems Corp filed Critical Olympus Medical Systems Corp
Priority to JP2006077759A priority Critical patent/JP2006341075A/en
Publication of JP2006341075A publication Critical patent/JP2006341075A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Endoscopes (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To prepare structural information on living tissues at a desired depth, based on a spectral image acquired by signal processing, to image information of a color tone suitable for observations. <P>SOLUTION: A matrix operation unit 436 has its outputs which are individually connected with integration units 438a to 438c and are integrated. Individual spectral image signals ΣF1 to ΣF3 are subjected to color conversions at a color adjusting unit 440 so that spectral color channel image signals Rch, Gch, Bch are produced from the spectral image signals ΣF1 to ΣF3. The images of the spectral color channel image signals Rch, Gch, Bch are sent to a display monitor 106 through a switching unit 439. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、生体を撮像して得られるカラー画像信号を利用して、信号処理により分光画像としてモニタ上に表示する生体観測装置用信号処理装置に関する。   The present invention relates to a signal processing apparatus for a biological observation apparatus that displays a spectral image on a monitor by signal processing using a color image signal obtained by imaging a living body.

従来より、照明光を照射し体腔内の内視鏡画像を得る内視鏡装置が広く用いられている。この種の内視鏡装置では、光源装置からの照明光を体腔内にライトガイド等を用い導光しその戻り光により被写体を撮像する撮像手段を有する電子内視鏡が用いられ、ビデオプロセッサにより撮像手段からの撮像信号を信号処理することにより観察モニタに内視鏡画像を表示し患部等の観察部位を観察するようになっている。   2. Description of the Related Art Conventionally, endoscope apparatuses that irradiate illumination light and obtain an endoscopic image in a body cavity have been widely used. In this type of endoscope apparatus, an electronic endoscope having an image pickup unit that guides illumination light from a light source device into a body cavity using a light guide or the like and picks up an image of a subject using the return light is used. An image signal from the imaging means is signal-processed to display an endoscopic image on an observation monitor and observe an observation site such as an affected area.

内視鏡装置において通常の生体組織観察を行う場合は、1つの方式としては、光源装置で可視光領域の白色光を発光し、例えばRGB等の回転フィルタを介することで面順次光を被写体に照射し、この面順次光による戻り光をビデオプロセッサで同時化し画像処理することでカラー画像を得ている。また、内視鏡装置において通常の生体組織観察を行う場合は、別の方式としては、内視鏡の撮像手段の撮像面の前面にカラーチップを配し、光源装置で可視光領域の白色光を発光し、該白色光による戻り光をカラーチップにて各色成分毎に分離することで撮像しビデオプロセッサで画像処理することでカラー画像を得ている。   When performing normal biological tissue observation in an endoscopic device, one method is to emit white light in the visible light region with a light source device, and use, for example, a rotation filter such as RGB to subject the surface sequential light to the subject. A color image is obtained by irradiating and image-processing the return light by the frame sequential light with a video processor. When performing normal biological tissue observation in an endoscope apparatus, as another method, a color chip is arranged in front of the imaging surface of the imaging means of the endoscope, and white light in the visible light region is emitted by the light source device. Is emitted, and the return light by the white light is imaged by separating each color component by a color chip and image processing is performed by a video processor to obtain a color image.

生体組織は、照射される光の波長により光の吸収特性及び散乱特性が異なるため、例えば日本国特開2002−95635号公報において、可視光領域の照明光を離散的な分光特性の狭帯域なRGB面順次光を生体組織に照射し、生体組織の所望の深部の組織情報を得る狭帯域光内視鏡装置が提案されている。   Since living tissue has different light absorption characteristics and scattering characteristics depending on the wavelength of the irradiated light, for example, in Japanese Patent Application Laid-Open No. 2002-95635, illumination light in the visible light region has a narrow band of discrete spectral characteristics. A narrow-band optical endoscope apparatus that irradiates a living tissue with RGB sequential light and obtains tissue information of a desired deep portion of the living tissue has been proposed.

また、日本国特開2003−93336号公報において、可視光領域の照明光による画像信号を信号処理し離散的な分光画像を生成し、生体組織の所望の深部の組織情報を得る狭帯域光内視鏡装置が提案されている。
特開2002−95635号公報 特開2003−93336号公報
In Japanese Patent Laid-Open No. 2003-93336, narrowband light is obtained in which signal processing is performed on an image signal by illumination light in the visible light region to generate a discrete spectral image, and tissue information of a desired deep part of a living tissue is obtained. Endoscopic devices have been proposed.
JP 2002-95635 A JP 2003-93336 A

しかしながら、例えば上記日本国特開2003−93336号公報に記載の装置では、信号処理により分光画像を得ることで、狭帯域なRGB光を生成するためのフィルタを必要としないが、得られた分光画像を単にモニタに出力しているために、モニタに表示される画像が生体組織の所望の深部の組織情報の観察に適した色調の画像とならない虞れがある。   However, for example, the apparatus described in Japanese Patent Application Laid-Open No. 2003-93336 does not require a filter for generating narrow-band RGB light by obtaining a spectral image by signal processing. Since the image is simply output to the monitor, the image displayed on the monitor may not be an image having a color tone suitable for observing tissue information in a desired deep part of the living tissue.

本発明は、上記事情に鑑みてなされたものであり、信号処理により得られた分光画像に基づく生体組織の所望の深部の組織情報を観察に適した色調の画像情報に調整することのできる生体観測装置用信号処理装置を提供することを目的としている。   The present invention has been made in view of the above circumstances, and a living body capable of adjusting tissue information of a desired deep part of a living tissue based on a spectral image obtained by signal processing into image information of a color tone suitable for observation. It aims at providing the signal processing apparatus for observation apparatuses.

本発明の生体観測装置用信号処理装置は、被検体である生体に光を照射する照明部、及び/又は該照明部からの照明光に基づいて前記生体から反射される光を光電変換し、撮像信号を生成する撮像部の動作を制御し、表示装置へ前記撮像信号を出力する信号処理制御部を具備した生体観測装置用の信号処理装置であって、前記撮像信号から光学的波長狭帯域の画像に対応する分光信号を信号処理によって生成する分光信号生成部と、前記分光信号を前記表示装置へ出力する際に当該分光信号を形成する複数の帯域ごとに色調を調整する色調整部と、を有し、前記撮像信号は、色分解部を経て生成されることを特徴とする。   The signal processing apparatus for a biological observation apparatus of the present invention photoelectrically converts light reflected from the living body based on the illumination unit that irradiates light to the living body that is the subject and / or illumination light from the illumination unit, A signal processing apparatus for a biological observation apparatus that includes a signal processing control unit that controls an operation of an imaging unit that generates an imaging signal and outputs the imaging signal to a display device, and the optical wavelength narrow band from the imaging signal A spectral signal generation unit that generates a spectral signal corresponding to the image of the image by signal processing; and a color adjustment unit that adjusts a color tone for each of a plurality of bands forming the spectral signal when the spectral signal is output to the display device; The imaging signal is generated through a color separation unit.

本発明によれば、信号処理により得られた分光画像に基づく生体組織の所望の深部の組織情報を観察に適した色調の画像情報に調整することができるという効果がある。   ADVANTAGE OF THE INVENTION According to this invention, there exists an effect that the tissue information of the desired deep part of the biological tissue based on the spectral image obtained by signal processing can be adjusted to the image information of the color tone suitable for observation.

以下、図面を参照しながら本発明の実施例について述べる。   Embodiments of the present invention will be described below with reference to the drawings.

図1ないし図26と、図35と、図36と、図37とは本発明の実施例1に係わり、図1はカラー画像信号から分光画像信号を作成する際の信号の流れを示す概念図、図2は分光画像信号の積分演算を示す概念図、図3は電子内視鏡装置の外観を示す外観図、図4は図3の電子内視鏡装置の構成を示すブロック図、図5は図4のチョッパーの外観を示す外観図、図6は図3のCCDの撮像面に配置される色フィルタの配列を示す図、図7は図6の色フィルタの分光感度特性を示す図、図8は図4のマトリックス演算部の構成を示す構成図、図9は光源のスペクトルを示すスペクトル図、図10は生体の反射スペクトルを示すスペクトル図である。   FIGS. 1 to 26, FIG. 35, FIG. 36, and FIG. 37 relate to the first embodiment of the present invention. FIG. 1 is a conceptual diagram showing a signal flow when a spectral image signal is created from a color image signal. 2 is a conceptual diagram showing the integral operation of the spectral image signal, FIG. 3 is an external view showing the external appearance of the electronic endoscope apparatus, FIG. 4 is a block diagram showing the configuration of the electronic endoscope apparatus of FIG. Is an external view showing the external appearance of the chopper of FIG. 4, FIG. 6 is a view showing an arrangement of color filters arranged on the imaging surface of the CCD of FIG. 3, and FIG. 7 is a view showing spectral sensitivity characteristics of the color filter of FIG. FIG. 8 is a configuration diagram showing the configuration of the matrix calculation unit of FIG. 4, FIG. 9 is a spectrum diagram showing the spectrum of the light source, and FIG. 10 is a spectrum diagram showing the reflection spectrum of the living body.

図11は図4の電子内視鏡装置により観察する生体組織の層方向構造を示す図、図12は図4の電子内視鏡装置からの照明光の生体組織の層方向への到達状態を説明する図、図13は白色光の各バンドの分光特性を示す図、図14は図13の白色光による各バンド画像を示す第1の図、図15は図13の白色光による各バンド画像を示す第2の図、図16は図13の白色光による各バンド画像を示す第3の図、図17は図8のマトリックス演算部で生成された分光画像の分光特性を示す図、図18は図17の各分光画像を示す第1の図、図19は図17の各分光画像を示す第2の図、図20は図17の各分光画像を示す第3の図である。   11 is a diagram showing a layered structure of the biological tissue observed by the electronic endoscope apparatus of FIG. 4, and FIG. 12 is a diagram showing the arrival state of the illumination light from the electronic endoscope apparatus of FIG. 4 in the layer direction of the biological tissue. FIG. 13 is a diagram illustrating spectral characteristics of each band of white light, FIG. 14 is a first diagram illustrating each band image by white light in FIG. 13, and FIG. 15 is each band image by white light in FIG. FIG. 16 is a third diagram showing each band image by white light in FIG. 13, FIG. 17 is a diagram showing the spectral characteristics of the spectral image generated by the matrix operation unit in FIG. Is a first diagram showing each spectral image of FIG. 17, FIG. 19 is a second diagram showing each spectral image of FIG. 17, and FIG. 20 is a third diagram showing each spectral image of FIG.

図21は図4の色調整部の構成を示すブロック図、図22は図21の色調整部の作用を説明する図、図23は図4の色調整部の変形例の成を示すブロック図、図24は図17の分光画像の第1の変形例の分光特性を示す図、図25は図17の分光画像の第2の変形例の分光特性を示す図、図26は図17の分光画像の第3の変形例の分光特性を示す図である。   21 is a block diagram showing the configuration of the color adjustment unit in FIG. 4, FIG. 22 is a diagram for explaining the operation of the color adjustment unit in FIG. 21, and FIG. 23 is a block diagram showing a modification of the color adjustment unit in FIG. 24 is a diagram showing the spectral characteristics of the first modification of the spectral image of FIG. 17, FIG. 25 is a diagram showing the spectral characteristics of the second modification of the spectral image of FIG. 17, and FIG. 26 is the spectral characteristics of FIG. It is a figure which shows the spectral characteristic of the 3rd modification of an image.

図35は硬性鏡の外観を示す図、図36は口腔カメラの外観を示す図、図37は生体表面に接触させて用いられるカメラの外観を示す図である。   FIG. 35 is a diagram showing the appearance of the rigid endoscope, FIG. 36 is a diagram showing the appearance of the oral camera, and FIG. 37 is a diagram showing the appearance of the camera used in contact with the surface of the living body.

本発明の実施例における生体観測装置としての電子内視鏡装置では、照明用光源から被検体である生体に光を照射し、その照射光に基づいて生体から反射される光を撮像部である固体撮像素子にて受光し光電変換することにより、カラー画像信号である撮像信号を生成し、その撮像信号から光学的波長狭帯域の画像に対応する分光信号である分光画像信号を信号処理によって生成するようになっている。   In an electronic endoscope apparatus as a living body observation apparatus according to an embodiment of the present invention, an imaging unit emits light from a light source for illumination to a living body that is a subject and is reflected from the living body based on the irradiated light. A solid-state image sensor receives light and performs photoelectric conversion to generate an image signal that is a color image signal, and a spectral image signal that is a spectral signal corresponding to an optical wavelength narrow band image is generated from the image signal by signal processing. It is supposed to be.

以下、本発明に係る実施例1について説明する前に、本発明の基礎となるマトリックス算出方法について説明する。ここで、マトリックスとは、カラー画像(以下、通常画像と呼ぶ)を生成するために取得されるカラー画像信号から、分光信号としての分光画像信号を生成する際に用いられる所定の係数である。また、このマトリックスの説明に続き、より正確な分光画像信号を求めるための補正方法、生成された分光画像信号のS/N比を向上させるS/Nの改善方法について説明する。なお、この補正方法、S/Nの改善方法に関しては、必要に応じて使用すれば良い。また、以下、ベクトル及び行列(マトリックス)は太文字あるいは「」(例えば、行列Aを”Aの太文字”あるいは”「A」”と表記)で、それ以外は文字修飾なしで表記する。   Hereinafter, before describing Example 1 according to the present invention, a matrix calculation method as a basis of the present invention will be described. Here, the matrix is a predetermined coefficient used when generating a spectral image signal as a spectral signal from a color image signal acquired to generate a color image (hereinafter referred to as a normal image). Further, following the description of this matrix, a correction method for obtaining a more accurate spectral image signal and an S / N improvement method for improving the S / N ratio of the generated spectral image signal will be described. The correction method and the S / N improvement method may be used as necessary. In the following, vectors and matrices (matrix) are indicated by bold letters or “” (for example, the matrix A is indicated as “A bold letters of A” or “A” ”), and the others are indicated without character modification.

(マトリックス算出方法)
図1は、カラー画像信号(ここでは、説明を簡単にするために、R・G・Bとするが、後述する実施例のように、補色型固体撮像素子においては、G・Cy・Mg・Yeの組合せでも良い)から、より光学的波長狭帯域の画像に対応する画像に相当する分光画像信号を生成する際の信号の流れを示した概念図である。
(Matrix calculation method)
FIG. 1 shows a color image signal (here, R, G, and B for simplicity of explanation, but in a complementary color solid-state imaging device as in the embodiments described later, G, Cy, Mg, FIG. 4 is a conceptual diagram showing a signal flow when generating a spectral image signal corresponding to an image corresponding to an image in a narrower optical wavelength band.

まず、電子内視鏡装置は、R・G・Bのそれぞれの撮像部の分光感度特性としてのカラー感度特性を数値データ化する。ここで、R・G・Bのカラー感度特性とは、白色光の光源を用い、白色の被写体を撮像する時にそれぞれ得られる波長に対する出力の特性である。   First, the electronic endoscope apparatus converts color sensitivity characteristics as spectral sensitivity characteristics of the R, G, and B imaging units into numerical data. Here, the color sensitivity characteristics of R, G, and B are output characteristics with respect to wavelengths obtained when a white object is imaged using a white light source.

なお、R・G・Bのそれぞれのカラー感度特性は、簡略化したグラフとして各画像データの右に示されている。また、この時の、R・G・Bのカラー感度特性をそれぞれn次元の列ベクトル「R」・「G」・「B」とする。   The color sensitivity characteristics of R, G, and B are shown on the right side of each image data as a simplified graph. Further, the color sensitivity characteristics of R, G, and B at this time are assumed to be n-dimensional column vectors “R”, “G”, and “B”, respectively.

次に、電子内視鏡装置は、抽出したい分光信号、例えば3つの分光信号の基本分光特性としての分光画像用狭帯域パンドパスフィルタF1・F2・F3(電子内視鏡装置は、先見情報として、構造を効率よく抽出できるフィルタの特性を知っている。このフィルタの特性とは、波長帯域が略590nm〜略610nm、略530nm〜略550nm、略400m〜略430nmをそれぞれ通過帯域とするものである。)の特性を数値データ化する。   Next, the electronic endoscope apparatus uses spectral signals to be extracted, for example, narrow band Pandpass filters for spectral images as basic spectral characteristics of three spectral signals F1, F2, and F3 (the electronic endoscope apparatus uses foresight information). I know the characteristics of a filter that can extract the structure efficiently, which has passbands of about 590 nm to about 610 nm, about 530 nm to about 550 nm, and about 400 m to about 430 nm, respectively. )) Is converted into numerical data.

なお、ここで”略”とは、波長においては略10nm程度を含む概念である。この時のフィルタの特性をそれぞれn次元の列ベクトル「F1」・「F2」・「F3」とする。得られた数値データを基に、以下の関係を近似する最適な係数セットを求める。即ち、
[数1]

Figure 2006341075
となるマトリックスの要素を求めればよい。 Here, “substantially” is a concept including about 10 nm in wavelength. The filter characteristics at this time are n-dimensional column vectors “F1”, “F2”, and “F3”, respectively. Based on the obtained numerical data, an optimum coefficient set that approximates the following relationship is obtained. That is,
[Equation 1]
Figure 2006341075
What is necessary is just to obtain the elements of the matrix.

上の最適化の命題の解は数学的には、以下のように与えられる。R・G・Bのカラー感度特性を表すマトリックスを「C」、抽出したい狭帯域パンドパスフィルタの分光特性を表すマトリックスを「F」、主成分分析あるいは直交展開(あるいは直交変換)を実行するところの、求める係数マトリックスを「A」とすると、
[数2]

Figure 2006341075
となる。従って、(1)式に示した命題は、以下の関係を満足するマトリックス「A」を求めるに等しい。 The solution of the above optimization proposition is given mathematically as follows: Performing principal component analysis or orthogonal expansion (or orthogonal transformation), “C” for the matrix representing the color sensitivity characteristics of R, G, and B, “F” for the spectral characteristics of the narrowband Pandpass filter to be extracted If the coefficient matrix to be calculated is “A”,
[Equation 2]
Figure 2006341075
It becomes. Therefore, the proposition shown in the equation (1) is equivalent to obtaining a matrix “A” that satisfies the following relationship.

[数3]

Figure 2006341075
ここで、分光特性を表すスペクトルデータとしての点列数nとしては、n>3であるので、(3)式は1次元連立方程式ではなく、線形最小二乗法の解として与えられる。即ち、(3)式から擬似逆行列を解けばよい。マトリックス「C」の転置行列を「tC」とすれば、(3)式は
[数4]
Figure 2006341075
となる。「tCC」はn×nの正方行列であるので、(4)式はマトリックス「A」についての連立方程式と見ることができ、その解は、
[数5]
Figure 2006341075
与えられる。 [Equation 3]
Figure 2006341075
Here, since the number of point sequences n as spectral data representing spectral characteristics is n> 3, equation (3) is not a one-dimensional simultaneous equation but is given as a solution of the linear least square method. That is, the pseudo inverse matrix may be solved from the equation (3). Assuming that the transposed matrix of the matrix “C” is “tC”, the equation (3) is expressed by [Equation 4].
Figure 2006341075
It becomes. Since “tCC” is an n × n square matrix, equation (4) can be viewed as a simultaneous equation for the matrix “A”, and its solution is
[Equation 5]
Figure 2006341075
Given.

(5)式にて求められたマトリックス「A」について、電子内視鏡装置は、(3)式の左辺の変換を行うことで、抽出したい狭帯域パンドパスフィルタF1・F2・F3の特性を近似することができる。以上が、本発明の基礎となるマトリックス算出方法の説明である。   For the matrix “A” obtained by the equation (5), the electronic endoscope apparatus performs the conversion of the left side of the equation (3) to obtain the characteristics of the narrow band Pandpass filters F1, F2, and F3 to be extracted. Can be approximated. The above is the description of the matrix calculation method that is the basis of the present invention.

このようにして算出されたマトリックスを用いて、後述するマトリックス演算部436が通常カラー画像信号から分光画像信号を生成する。   Using the matrix calculated in this manner, a matrix calculation unit 436 described later generates a spectral image signal from the normal color image signal.

(補正方法)
次に、より正確な分光画像信号を求めるための補正方法について説明する。
(Correction method)
Next, a correction method for obtaining a more accurate spectral image signal will be described.

上述のマトリックス算出方法の説明においては、CCD等の固体撮像素子が受光する光束が、完全な白色光(可視域において、全ての波長強度が同じ)である場合に正確に適用されるものである。即ち、RGBの出力がいずれも同じである場合に、最適な近似となる。   In the above description of the matrix calculation method, the light beam received by a solid-state imaging device such as a CCD is exactly white light (all wavelength intensities are the same in the visible range), and is applied accurately. . That is, the approximation is optimal when the RGB outputs are the same.

しかし、実際の内視鏡観察下では、照明する光束(光源の光束)は完全な白色光ではなく、生体の反射スペクトルも一律ではないので、固体撮像素子が受光する光束も白色光でない(色が着いているので、RGBの値は同じではない)。   However, under actual endoscopic observation, the light beam to be illuminated (the light beam from the light source) is not completely white light, and the reflection spectrum of the living body is not uniform, so the light beam received by the solid-state imaging device is not white light (color Are not the same).

従って、実際の処理において、(3)式に示した命題をより正確に解くためには、撮像部の分光感度特性としてのRGBのカラー感度特性に加え、照明部の分光感度特性としての照明光の分光特性、被検体の分光特性データの集合としての生体の反射特性を考慮することが望ましい。   Therefore, in actual processing, in order to solve the proposition shown in the expression (3) more accurately, in addition to the RGB color sensitivity characteristics as the spectral sensitivity characteristics of the imaging unit, the illumination light as the spectral sensitivity characteristics of the illumination unit It is desirable to consider the spectral characteristics of the living body and the reflection characteristics of the living body as a set of spectral characteristic data of the subject.

ここで、カラー感度特性(撮像部の分光感度特性)をそれぞれR(λ)、G(λ)、B(λ)とし、照明光の分光特性(照明部の分光感度特性)の一例をS(λ)、生体の反射特性(被検体の分光特性データの集合)の一例をH(λ)とする。なお、この照明光の分光特性および生体の反射特性は、必ずしも検査を行う装置、被検体の特性でなくてもよく、例えば予め取得しておいた一般的な特性としても良い。   Here, color sensitivity characteristics (spectral sensitivity characteristics of the imaging unit) are R (λ), G (λ), and B (λ), respectively, and an example of spectral characteristics of illumination light (spectral sensitivity characteristics of the illumination unit) S ( λ), an example of the reflection characteristics of the living body (a set of spectral characteristic data of the subject) is H (λ). Note that the spectral characteristics of the illumination light and the reflection characteristics of the living body do not necessarily have to be the characteristics of the inspection apparatus and the subject, and may be general characteristics acquired in advance, for example.

これらの係数を用いると、補正係数kR・kG・kBは、
[数6]
kR=(∫S(λ)×H(λ)×R(λ)dλ)-1
kG=(∫S(λ)×H(λ)×G(λ)dλ)-1
kB=(∫S(λ)×H(λ)×B(λ)dλ)-1 …(6)
で与えられる。感度補正マトリックスを「K」とすると、以下のように与えられる。
Using these coefficients, the correction coefficients kR, kG, and kB are
[Equation 6]
kR = (∫S (λ) × H (λ) × R (λ) dλ) −1
kG = (∫S (λ) × H (λ) × G (λ) dλ) −1
kB = (∫S (λ) × H (λ) × B (λ) dλ) −1 (6)
Given in. When the sensitivity correction matrix is “K”, it is given as follows.

[数7]

Figure 2006341075
従って、係数マトリックス「A」については、(5)式に(7)式の補正を加えて、以下のようになる。 [Equation 7]
Figure 2006341075
Accordingly, the coefficient matrix “A” is as follows after adding the correction of the equation (7) to the equation (5).

[数8]

Figure 2006341075
また、実際に最適化を行う場合は、目標とするフィルタの分光感度特性(図1中のF1・F2・F3:基本分光特性)が負のときは画像表示上では0となる(つまりフィルタの分光感度特性のうち正の感度を有する部分のみ使用される)ことを利用し、最適化された感度分布の一部が負になることも許容されることが付加される。電子内視鏡装置は、ブロードな分光感度特性から狭帯域な分光感度特性を生成するためには、図1に示すように目標とするF1・F2・F3の特性に、負の感度特性を付加することで、感度を有する帯域を近似した成分を生成することができる。 [Equation 8]
Figure 2006341075
When the optimization is actually performed, when the spectral sensitivity characteristics (F1, F2, F3: basic spectral characteristics in FIG. 1) of the target filter are negative, it becomes 0 on the image display (that is, the filter It is added that it is allowed that a part of the optimized sensitivity distribution becomes negative by utilizing only the part having the positive sensitivity among the spectral sensitivity characteristics. In order to generate a narrow-band spectral sensitivity characteristic from a broad spectral sensitivity characteristic, the electronic endoscope device adds a negative sensitivity characteristic to the target characteristics of F1, F2, and F3 as shown in FIG. By doing so, it is possible to generate a component approximating a sensitive band.

(S/Nの改善方法)
次に、生成された分光画像信号のS/N及び精度を向上させる方法について説明する。このS/N比の改善方法は、前述した処理方法に付加することにより、さらに以下の課題を解決するものである。
(S / N improvement method)
Next, a method for improving the S / N and accuracy of the generated spectral image signal will be described. This method for improving the S / N ratio solves the following problems by adding to the processing method described above.

(i)前述のマトリックス算出方法における原信号(R・G・B)のいずれかが仮に飽和状態となると、処理方法におけるフィルタF1乃至F3の特性が、構造を効率よく抽出できるフィルタの特性(理想とする特性)と大きく異なってしまう可能性がある(R・G・Bの中、2つの信号だけでフィルタF1乃至F3が生成される場合は、その2つの原信号がいずれも飽和していないことが必要である)。 (I) If any of the original signals (R, G, B) in the matrix calculation method described above is saturated, the characteristics of the filters F1 to F3 in the processing method are characteristics of a filter that can extract the structure efficiently (ideal (If the filters F1 to F3 are generated with only two signals in R, G and B, neither of the two original signals is saturated.) It is necessary).

(ii)カラー画像信号から分光画像信号への変換に際に、広帯域のフィルタから狭帯域フィルタの生成するため、感度の劣化が発生し、生成された分光画像信号の成分も小さくなり、S/N比が良くない。 (Ii) When a color image signal is converted into a spectral image signal, a narrowband filter is generated from a wideband filter. Therefore, sensitivity deterioration occurs, and the component of the generated spectral image signal is also reduced. N ratio is not good.

このS/N比改善の方法とは、図2に示されるように、照明光の照射を通常画像(一般的なカラー画像)の1フィールド(1フレーム)中に数回(例えばn回、nは2以上の整数)に分けて照射する(照射強度をそれぞれの回で変化させても良い。図2においては、I0乃至Inで示されている。なお、これは照明光の制御のみで実現可能である。)。   As shown in FIG. 2, the method of improving the S / N ratio is that illumination light is irradiated several times (for example, n times, n times) in one field (one frame) of a normal image (general color image). (The irradiation intensity may be changed at each time. It is indicated by I0 to In in Fig. 2. This is realized only by controlling the illumination light. It is possible.)

これにより、電子内視鏡装置は、1回の照射強度を小さくすることができ、RGB信号のいずれもがそれぞれ飽和状態となるのを抑えることができる。また、数回に分割された画像信号は、後段でn枚分の加算を行う。これにより、電子内視鏡装置は、信号成分を大きくしてS/N比を向上させることができる。図2で、積算部438a乃至438cはS/N比を改善する画質調整部として機能する。   Thereby, the electronic endoscope apparatus can reduce the irradiation intensity of one time, and can suppress that each of the RGB signals is saturated. Further, the image signal divided into several times is added for n sheets in the subsequent stage. Thereby, the electronic endoscope apparatus can increase the signal component and improve the S / N ratio. In FIG. 2, the integration units 438a to 438c function as image quality adjustment units that improve the S / N ratio.

以上が、本発明の基礎となるマトリックス演算方法、またこれと共に実施することが可能な正確な分光画像信号を求めるための補正方法、生成された分光画像信号のS/N比を向上させる方法の説明である。   The above is the matrix calculation method that is the basis of the present invention, the correction method for obtaining an accurate spectral image signal that can be performed together with this, and the method for improving the S / N ratio of the generated spectral image signal. It is an explanation.

ここで、上述のマトリックス算出方法の変形例について説明する。   Here, a modified example of the above-described matrix calculation method will be described.

(マトリックス算出方法の変形例)
カラー画像信号をR,G,B、推定する分光画像信号をF1,F2,F3とする。なお、厳密には、カラー画像信号R,G,Bは、画像上の位置x,yの関数でもあるので、例えばR(x,y)と表記すべきだが、ここでは省略する。
(Modification of matrix calculation method)
Assume that the color image signals are R, G, and B, and the spectral image signals to be estimated are F1, F2, and F3. Strictly speaking, the color image signals R, G, and B are also functions of the positions x and y on the image, and should be expressed as R (x, y), for example, but are omitted here.

R,G,BからF1,F2,F3を計算する3×3の行列「A」を推定することが目標となる。「A」が推定されれば、R,G,BからF1,F2,F3の計算は、以下の(9)式で可能となる。   The goal is to estimate a 3 × 3 matrix “A” that calculates F1, F2, F3 from R, G, B. If “A” is estimated, F1, F2, and F3 can be calculated from R, G, and B by the following equation (9).

[数9]

Figure 2006341075
ここで、以下のデータの表記を定義する。 [Equation 9]
Figure 2006341075
Here, the following data notation is defined.

被検体の分光特性:H(λ)、「H」=(H(λ2),H(λ2),…,H(λn))t
λは波長であり、tは行列演算における転置を表す。同様に、
照明光の分光特性:S(λ)、「S」=(S(λ2),S(λ2),…,S(λn))t
CCDの分光感度特性:J(λ)、「J」=(J(λ2),J(λ2),…,J(λn))t
色分解を行うフィルタの分光特性:原色の場合
R(λ)、「R」=(R(λ2),R(λ2),…,R(λn))t
G(λ)、「G」=(G(λ2),G(λ2),…,G(λn))t
B(λ)、「B」=(B(λ2),B(λ2),…,B(λn))t
「R」、「G」、「B」は(10)式に示すように、行列「 C」で1つにまとめられる。
Spectral characteristics of subject: H (λ), “H” = (H (λ2), H (λ2),..., H (λn)) t
λ is a wavelength, and t represents transposition in matrix calculation. Similarly,
Spectral characteristics of illumination light: S (λ), “S” = (S (λ2), S (λ2),..., S (λn)) t
Spectral sensitivity characteristics of CCD: J (λ), “J” = (J (λ2), J (λ2),..., J (λn)) t
Spectral characteristics of filters for color separation: For primary colors
R (λ), “R” = (R (λ2), R (λ2),..., R (λn)) t
G (λ), “G” = (G (λ2), G (λ2),..., G (λn)) t
B (λ), “B” = (B (λ2), B (λ2),..., B (λn)) t
“R”, “G”, and “B” are combined into a matrix “C” as shown in the equation (10).

[数10]

Figure 2006341075
画像信号R,G,B、分光信号F1,F2,F3を行列で以下のように表記する。 [Equation 10]
Figure 2006341075
The image signals R, G, B and the spectral signals F1, F2, F3 are expressed in matrix as follows.

[数11]

Figure 2006341075
画像信号「P」は次式で計算される。 [Equation 11]
Figure 2006341075
The image signal “P” is calculated by the following equation.

[数12]

Figure 2006341075
いま、「Q」を得るための色分解フィルタを「F」とすると、(12)式同様に
[数13]
Figure 2006341075
ここで、重要な第1の仮定として、いま、被検体の分光反射率が基本的な複数の(ここでは3つの)分光特性の線形和で近似して表現できると仮定すると、「H」は以下のように表記できる。 [Equation 12]
Figure 2006341075
Assuming that the color separation filter for obtaining “Q” is “F”, [Formula 13] as in the equation (12).
Figure 2006341075
Here, as an important first assumption, assuming that the spectral reflectance of the subject can be approximated by a linear sum of a plurality of (three in this case) spectral characteristics, “H” is It can be expressed as follows.

[数14]

Figure 2006341075
ここで、「D」は3つの基本スペクトルD1(λ)、D2(λ)、D3(λ)を列ベクトルに持つ行列で、「W」は「H」に対するD1(λ)、D2(λ)、D3(λ)の寄与をあらわす重み係数である。被検体の色調がそれほど大きく変動しない場合には、この近似が成立することが知られている。 [Formula 14]
Figure 2006341075
Here, “D” is a matrix having three basic spectra D1 (λ), D2 (λ), and D3 (λ) as column vectors, and “W” is D1 (λ) and D2 (λ) for “H”. , D3 (λ) is a weighting coefficient representing the contribution. It is known that this approximation is established when the color tone of the subject does not vary so much.

(14)式を(12)式に代入すると、次式を得る。   Substituting equation (14) into equation (12) yields:

[数15]

Figure 2006341075
ここで、3×3の行列「M」は、行列「CSJD」の計算結果を1つにまとめた行列を示す。 [Equation 15]
Figure 2006341075
Here, the 3 × 3 matrix “M” indicates a matrix in which the calculation results of the matrix “CSJD” are combined into one.

同様に、(14)式を(13)式に代入して、次式を得る。   Similarly, the following equation is obtained by substituting the equation (14) into the equation (13).

[数16]

Figure 2006341075
同じく、「M’」は、行列「FSJD」の計算結果を1つにまとめた行列を示す。 [Equation 16]
Figure 2006341075
Similarly, “M ′” indicates a matrix in which the calculation results of the matrix “FSJD” are combined into one.

結局、(15)式と(16)式から「W」を消去して、以下の式を得る。   Eventually, “W” is eliminated from the equations (15) and (16), and the following equation is obtained.

[数17]

Figure 2006341075
「M-1」は行列「M」の逆行列を示す。結局、「M’M-1」は3×3の行列となり、推定目標の行列「A」となる。 [Equation 17]
Figure 2006341075
“M−1” indicates an inverse matrix of the matrix “M”. Eventually, “M′M−1” is a 3 × 3 matrix, which is the estimation target matrix “A”.

ここで、重要な第2の仮定として、色分解をバンドパスフィルタで行う場合、そのバンド内における被検体の分光特性を1つの数値で近似できると仮定する。すなわち、
[数18]

Figure 2006341075
色分解用のバンドパスが完全なバンドパスでなく、他の帯域にも感度を持つ場合も考慮して、この仮定が成立する場合、(15)式、(16)式における「W」を上記「H」と考えれば、結局(17)式と同様な行列が推定できる。 Here, as an important second assumption, when color separation is performed using a bandpass filter, it is assumed that the spectral characteristic of the subject in the band can be approximated by one numerical value. That is,
[Equation 18]
Figure 2006341075
In consideration of the case where the bandpass for color separation is not a complete bandpass and has sensitivity in other bands as well, if this assumption is satisfied, “W” in Expressions (15) and (16) is Considering “H”, a matrix similar to the equation (17) can be estimated after all.

次に、本発明の実施例1に係る生体観測装置としての電子内視鏡装置の具体的な構成について、図3を参照して説明する。なお、以下に示す他の実施例でも同様の構成である。   Next, a specific configuration of the electronic endoscope apparatus as the living body observation apparatus according to the first embodiment of the present invention will be described with reference to FIG. The other embodiments described below have the same configuration.

図3に示すように、生体観測装置としての電子内視鏡装置100は、観察部としての内視鏡101、内視鏡装置本体105、表示装置あるいは表示出力装置としての表示モニタ106を有している。また、観察部としての内視鏡101は、被検体の体内に挿入される挿入部102、挿入部102の先端に設けられた先端部103および、挿入部102の先端側とは反対側に設けられ、先端部103の湾曲動作等を指示するためのアングル操作部104から主として構成されている。   As shown in FIG. 3, an electronic endoscope apparatus 100 as a living body observation apparatus includes an endoscope 101 as an observation unit, an endoscope apparatus body 105, and a display monitor 106 as a display apparatus or a display output apparatus. ing. In addition, an endoscope 101 as an observation unit is provided on an insertion portion 102 to be inserted into the body of a subject, a distal end portion 103 provided at the distal end of the insertion portion 102, and a side opposite to the distal end side of the insertion portion 102. It is mainly composed of an angle operation unit 104 for instructing a bending operation or the like of the distal end portion 103.

軟性鏡として構成された内視鏡101で取得された被検体の画像は、内視鏡装置本体105にて所定の信号処理がなされ、表示モニタ106において、処理された画像が表示される。   The subject image acquired by the endoscope 101 configured as a flexible endoscope is subjected to predetermined signal processing in the endoscope apparatus main body 105, and the processed image is displayed on the display monitor 106.

次に、図4を参照して、内視鏡装置本体105について詳しく説明する。なお、図4は、電子内視鏡装置100のブロック図である。   Next, the endoscope apparatus main body 105 will be described in detail with reference to FIG. FIG. 4 is a block diagram of the electronic endoscope apparatus 100.

図4に示すように、内視鏡装置本体105は、主に照明部としての光源部41、制御部42、本体処理装置43から構成されている。制御部42及び本体処理装置43は、前記光源部41及び/または撮像部としてのCDD21の動作を制御し、表示装置である表示モニタ106へ撮像信号を出力する信号処理制御部を構成している。   As shown in FIG. 4, the endoscope apparatus main body 105 mainly includes a light source section 41 as a lighting section, a control section 42, and a main body processing apparatus 43. The control unit 42 and the main body processing device 43 constitute a signal processing control unit that controls the operation of the CDD 21 as the light source unit 41 and / or the imaging unit and outputs an imaging signal to the display monitor 106 that is a display device. .

なお、本実施例では、1つのユニットである内視鏡装置本体105内に光源部41と画像処理等を行う本体処理装置43を有するものとして説明を行うが、これらの光源部41と本体処理装置43は、内視鏡装置本体105とは別のユニットとして、取り外し可能なように構成されていても良い。   In this embodiment, the endoscope apparatus main body 105, which is a single unit, is described as having a light source unit 41 and a main body processing device 43 that performs image processing. However, the light source unit 41 and the main body processing are described. The apparatus 43 may be configured to be removable as a unit different from the endoscope apparatus main body 105.

照明部である光源部41は、制御部42および内視鏡101に接続されており、制御部42からの信号に基づいて所定の光量で白色光(完全な白色光でない場合も含む)の照射を行う。また、光源部41は、白色光源としてのランプ15と、光量を調整するためのチョッパー16と、チョッパー16を駆動するためのチョッパー駆動部17とを有している。   The light source unit 41, which is an illumination unit, is connected to the control unit 42 and the endoscope 101, and emits white light (including a case where it is not complete white light) with a predetermined light amount based on a signal from the control unit 42. I do. The light source unit 41 includes a lamp 15 as a white light source, a chopper 16 for adjusting the amount of light, and a chopper driving unit 17 for driving the chopper 16.

チョッパー16は、図5に示すように、点17aを中心とし、所定の半径r0の円盤状の構造体に円周方向に所定の長さを有する切り欠き部が設けられた構成を備える。この中心点17aは、チョッパー駆動部17に設けられた回転軸と接続されている。つまり、チョッパー16は、中心点17aを中心に回転運動を行う。また、この切り欠き部は、所定の半径毎に複数設けられている。同図においては、この切り欠き部は、半径r0から半径raの間では、最大の長さ=2πr0×2θ0度/360度、幅=r0−raである。また、同様に、半径raから半径rbの間では、最大の長さ=2πra×2θ1度/360度、幅=ra−rb、半径rbから半径rcの間では、最大の長さ=2πrb×2θ2度/360度、幅=rb−rcという構成である(それぞれの半径は、r0>ra>rb>rcとする)。   As shown in FIG. 5, the chopper 16 has a configuration in which a notch having a predetermined length in the circumferential direction is provided in a disk-like structure having a predetermined radius r0 with the point 17a as the center. The center point 17a is connected to a rotating shaft provided in the chopper driving unit 17. That is, the chopper 16 performs rotational movement around the center point 17a. In addition, a plurality of notches are provided for each predetermined radius. In this figure, the notch has a maximum length = 2πr0 × 2θ0 degrees / 360 degrees and a width = r0−ra between the radius r0 and the radius ra. Similarly, the maximum length = 2πra × 2θ1 degrees / 360 degrees between the radius ra and the radius rb, the width = ra−rb, and the maximum length = 2πrb × 2θ2 between the radius rb and the radius rc. Degree / 360 degrees and width = rb−rc (respective radii are r0> ra> rb> rc).

なお、チョッパー16における切り欠き部の長さ、幅は一例であり、本実施例に限定されるわけではない。   In addition, the length and width of the notch in the chopper 16 are examples, and are not limited to the present embodiment.

また、チョッパー16は、この切り欠き部の略中央に半径方向に延伸する突起部160aを有する。なお、制御部42は、この突起部160aにより光が遮断された時にフレームを切換えることにより、1フレーム前と1フレーム後に照射される光の間隔を最小限にし、被検体の動き等によるブレを最小限にするものである。   Further, the chopper 16 has a protrusion 160a extending in the radial direction substantially at the center of the notch. The control unit 42 switches the frame when the light is blocked by the projection 160a, thereby minimizing the interval between the light irradiated one frame before and after the frame, and blurring due to the movement of the subject. Minimize.

また、チョッパー駆動部17は図4における矢印で示されるように、ランプ15に対する方向に移動が可能な構成となっている。   Further, the chopper driving unit 17 is configured to be movable in the direction with respect to the lamp 15 as indicated by an arrow in FIG.

つまり、制御部42は、図5に示されたチョッパー16の回転中心17aとランプからの光束(点線円で示されている)との距離Rを変えることができる。例えば、図5に示された状態では、距離Rがかなり小さいので、照明光量は小さい状態にある。距離Rを大きくする(チョッパー駆動部17をランプ15から遠ざける)ことで、光束が通過できる切り欠き部が長くなるため、照射時間が長くなり、制御部42は、照明光量を大きくすることができる。   That is, the control unit 42 can change the distance R between the rotation center 17a of the chopper 16 shown in FIG. 5 and the luminous flux from the lamp (shown by a dotted circle). For example, in the state shown in FIG. 5, since the distance R is quite small, the amount of illumination light is small. By increasing the distance R (the chopper driving unit 17 is moved away from the lamp 15), the cutout portion through which the light beam can pass becomes longer, so the irradiation time becomes longer, and the control unit 42 can increase the amount of illumination light. .

上述のように、電子内視鏡装置では、新しく生成した分光画像がS/Nとしては不十分である可能性があることと、分光画像の生成に必要なRGB信号のいずれかの信号が飽和している場合には正しい演算が行われたことにはならないので、照明光量を制御する必要がある。この光量調節をチョッパー16およびチョッパー駆動部17が担うことになる。   As described above, in the electronic endoscope apparatus, there is a possibility that the newly generated spectral image may not be sufficient as the S / N, and one of the RGB signals necessary for generating the spectral image is saturated. In such a case, the correct calculation is not performed, and it is necessary to control the amount of illumination light. The light amount adjustment is performed by the chopper 16 and the chopper driving unit 17.

また、光源部41にコネクタ11を介して接続された内視鏡101は、先端部103に対物レンズ19及びCCD等の固体撮像素子21(以下、単にCCDと記載する)を備えている。本実施例におけるCCDは単板式(同時式電子内視鏡用に用いられるCCD)であり、原色型である。なお、図6はCCDの撮像面に配置される色フィルタの配列を図6に示している。CCDの撮像面に配置される色フィルタは、色分解部を構成する。また、図7は図6の色フィルタにおけるRGBのそれぞれの分光感度特性を図7に示している。   The endoscope 101 connected to the light source unit 41 via the connector 11 includes an objective lens 19 and a solid-state imaging device 21 such as a CCD (hereinafter simply referred to as a CCD) at the distal end portion 103. The CCD in this embodiment is a single plate type (CCD used for a simultaneous electronic endoscope) and is a primary color type. FIG. 6 shows the arrangement of color filters arranged on the imaging surface of the CCD. The color filter arranged on the imaging surface of the CCD constitutes a color separation unit. FIG. 7 shows the spectral sensitivity characteristics of RGB in the color filter of FIG.

また、図4に示すように、挿入部102は、光源部41から照射された光を先端部103に導くライトガイド14と、CCDで得られた被検体の画像を本体処理装置43に伝送するための信号線と、また、処置を行うための鉗子チャネル28等を備えている。なお、鉗子チャネル28に鉗子を挿入するための鉗子口29は、操作部104近傍に設けられている。   As shown in FIG. 4, the insertion unit 102 transmits the light guide 14 that guides the light emitted from the light source unit 41 to the distal end portion 103 and the image of the subject obtained by the CCD to the main body processing device 43. A signal line for performing the treatment, a forceps channel 28 for performing the treatment, and the like. A forceps port 29 for inserting forceps into the forceps channel 28 is provided in the vicinity of the operation unit 104.

また、生体観測装置用の信号処理装置としての本体処理装置43は、光源部41と同様、コネクタ11を介して内視鏡101に接続される。本体処理装置43には、CCD21を駆動するためのCCDドライブ431を備えている。また、本体処理装置43は、通常画像を得るための信号回路系として輝度信号処理系と色信号処理系を有する。   In addition, the main body processing device 43 as a signal processing device for the living body observation device is connected to the endoscope 101 via the connector 11, similarly to the light source unit 41. The main body processing device 43 includes a CCD drive 431 for driving the CCD 21. The main body processing device 43 has a luminance signal processing system and a color signal processing system as signal circuit systems for obtaining a normal image.

輝度信号処理系は、CCD21に接続され輪郭補正を行う輪郭補正部432と、輪郭補正部432で補正されたデータから輝度信号を生成する輝度信号処理部434とを有する。また、色信号処理系は、CCD21に接続され、CCD21で得られた信号のサンプリング等を行いRGB信号を生成するサンプルホールド回路(S/H回路)433a乃至433c、S/H回路433a乃至433cの出力に接続され、色信号の生成を行う色信号処理部435を有する。   The luminance signal processing system includes a contour correction unit 432 that is connected to the CCD 21 and performs contour correction, and a luminance signal processing unit 434 that generates a luminance signal from data corrected by the contour correction unit 432. The color signal processing system is connected to the CCD 21, and samples and hold circuits (S / H circuits) 433a to 433c and S / H circuits 433a to 433c that sample the signals obtained by the CCD 21 and generate RGB signals. A color signal processing unit 435 is connected to the output and generates a color signal.

そして、前記輝度信号処理系の出力と前記色信号処理系の出力から1つの通常画像を生成する通常画像生成部437が設けられ、通常画像生成部437から切換部439を介して、表示モニタ106にY信号、R−Y信号、B−Y信号が送られる。   Then, a normal image generating unit 437 that generates one normal image from the output of the luminance signal processing system and the output of the color signal processing system is provided, and the display monitor 106 via the switching unit 439 from the normal image generating unit 437. Y signal, RY signal, and BY signal are sent to.

一方、分光画像を得るための信号回路系としての、すなわち、S/H回路433a乃至433cの出力(RGB信号)が入力され、RGB信号に対して所定のマトリックス演算を行うマトリックス演算部436が設けられている。マトリックス演算部436は、分光信号生成部を構成する。マトリックス演算とは、カラー画像信号同士に加算処理等を行い、また、上述のマトリックス算出方法(あるいはその変形例)により求められたマトリックスを乗算する処理をいう。   On the other hand, a matrix calculation unit 436 is provided as a signal circuit system for obtaining a spectral image, that is, the outputs (RGB signals) of the S / H circuits 433a to 433c are inputted and a predetermined matrix calculation is performed on the RGB signals. It has been. The matrix calculation unit 436 constitutes a spectral signal generation unit. Matrix calculation refers to a process of performing addition processing or the like between color image signals and multiplying the matrix obtained by the above-described matrix calculation method (or a modification thereof).

なお、本実施例では、このマトリックス演算の方法として、電子回路処理(電子回路を用いたハードウェアによる処理)を用いた方法について説明するが、後述の実施例のように、数値データ処理(プログラムを用いたソフトウェアによる処理)を用いた方法であっても良い。また、実施するにあたっては、これらの方法を組み合わせとすることも可能である。   In this embodiment, a method using electronic circuit processing (processing by hardware using an electronic circuit) will be described as the matrix calculation method. However, as in the embodiments described later, numerical data processing (program A method using software processing using Moreover, when implementing, it is also possible to combine these methods.

図8に、マトリックス演算部436の回路図を示している。RGB信号はそれぞれ抵抗群31a乃至31cを介して、増幅器32a乃至32cに入力される。それぞれの抵抗群は、RGB信号がそれぞれ接続される複数の抵抗を有しており、それぞれの抵抗の抵抗値はマトリクス係数に応じた値となっている。即ち、それぞれの抵抗によりRGB信号の増幅率を変化させ、増幅器で加算(減算でも良い)する構成となっている。それぞれの増幅器32a乃至32cの出力は、マトリックス演算部436の出力となる。つまり、このマトリックス演算部436は、いわゆる重み付け加算処理を行っている。なお、ここで用いられるそれぞれの抵抗における抵抗値を可変としても良い。   FIG. 8 shows a circuit diagram of the matrix calculation unit 436. The RGB signals are input to the amplifiers 32a to 32c through the resistor groups 31a to 31c, respectively. Each resistor group has a plurality of resistors to which RGB signals are respectively connected, and the resistance value of each resistor is a value corresponding to the matrix coefficient. In other words, the gain of the RGB signal is changed by each resistor, and the amplifiers add (or subtract). The outputs of the amplifiers 32a to 32c are the outputs of the matrix operation unit 436. That is, the matrix calculation unit 436 performs so-called weighted addition processing. Note that the resistance value of each resistor used here may be variable.

マトリックス演算部436の出力は、それぞれ積算部438a乃至438cに接続され、積分演算が行われた後、それぞれの分光画像信号ΣF1乃至ΣF3に対して色調整部440にて後述する色調整演算が行われ、分光画像信号ΣF1乃至ΣF3より分光カラーチャンネル画像信号Rch、Gch、Bchが生成される。生成された分光カラーチャンネル画像信号Rch、Gch、Bchは切換部439を介して、表示モニタ106のRGBのカラーチャンネルR(ch)、G(ch)、B(ch)に送られる。なお、色調整部440の構成については、後述する。   The outputs of the matrix operation unit 436 are connected to the integration units 438a to 438c, respectively, and after integration is performed, the color adjustment operation described later is performed on the spectral image signals ΣF1 to ΣF3 by the color adjustment unit 440. Thus, spectral color channel image signals Rch, Gch, and Bch are generated from the spectral image signals ΣF1 to ΣF3. The generated spectral color channel image signals Rch, Gch, and Bch are sent to the RGB color channels R (ch), G (ch), and B (ch) of the display monitor 106 via the switching unit 439. The configuration of the color adjustment unit 440 will be described later.

なお、切換部439は、通常画像と分光画像の切換えを行うものであり、また分光画像同士の切換表示も可能である。つまり操作者は、通常画像、カラーチャンネルR(ch)による分光カラーチャンネル画像、カラーチャンネルG(ch)による分光カラーチャンネル画像、カラーチャンネルB(ch)による分光カラーチャンネル画像から選択的に表示モニタ106に表示させることができる。また、いずれか2つ以上の画像を同時に表示モニタ106に表示可能な構成としても良い。特に、通常画像と分光カラーチャンネル画像(以下、分光チャンネル画像ともいう)を同時に表示可能とした場合には、一般的に観察を行っている通常画像と分光チャンネル画像を簡単に対比することができ、それぞれの特徴(通常画像の特徴は色度合いが通常の肉眼の観察に近く観察しやすい。分光チャンネル画像の特徴は通常画像では観察できない所定の血管等を観察することができる。)を加味した上で、観察することができ診断上非常に有用である。   Note that the switching unit 439 switches between a normal image and a spectral image, and can also switch between spectral images. That is, the operator selectively displays the monitor 106 from the normal image, the spectral color channel image by the color channel R (ch), the spectral color channel image by the color channel G (ch), and the spectral color channel image by the color channel B (ch). Can be displayed. Further, any two or more images may be displayed on the display monitor 106 at the same time. In particular, when a normal image and a spectral color channel image (hereinafter also referred to as a spectral channel image) can be displayed simultaneously, it is possible to easily compare the normal image and the spectral channel image that are generally observed. In addition, each feature (a feature of a normal image is easy to observe because the color degree is close to that of a normal naked eye. A feature of a spectral channel image can observe a predetermined blood vessel or the like that cannot be observed with a normal image). Above, it can be observed and is very useful diagnostically.

なお、本実施例において用いられる、軟性鏡として構成された内視鏡である内視鏡101は、例えば、図35に示す内視鏡101aのような、硬性鏡として構成された内視鏡であっても良い。   Note that an endoscope 101 that is an endoscope configured as a flexible endoscope used in the present embodiment is an endoscope configured as a rigid endoscope such as an endoscope 101a illustrated in FIG. There may be.

内視鏡101aは、被検体の体内に挿入される硬性の挿入部102aと、挿入部102aの基端部に対して着脱自在に構成されたテレビカメラ103aとを有している。   The endoscope 101a includes a rigid insertion portion 102a that is inserted into the body of a subject, and a television camera 103a that is configured to be detachable from the proximal end portion of the insertion portion 102a.

挿入部102aは、内視鏡装置本体105の光源部41に対して着脱自在な構成を有するケーブル112を有している。また、挿入部102a及びケーブル112には、光源部41からの照明光を挿入部102aの先端部に導く図示しないライトガイドが内部に設けられている。   The insertion portion 102 a has a cable 112 having a configuration that is detachable from the light source portion 41 of the endoscope apparatus main body 105. The insertion portion 102a and the cable 112 are provided with a light guide (not shown) that guides illumination light from the light source portion 41 to the distal end portion of the insertion portion 102a.

さらに、挿入部102aの先端部は、被検体の像を結像するための、図示しない対物光学系を有する。挿入部102aは、前記対物光学系の基端側に設けられ、先端部から基端部にかけてリレーレンズ(図示せず)を有している。   Furthermore, the distal end portion of the insertion portion 102a has an objective optical system (not shown) for forming an image of the subject. The insertion portion 102a is provided on the proximal end side of the objective optical system, and has a relay lens (not shown) from the distal end portion to the proximal end portion.

挿入部102aが前述した構成を有するため、被検体の像は、前記対物光学系により、前記リレーレンズの先端面において結像された後、前記リレーレンズ群を介して伝送される。その伝送された被検体の像の光は、前記リレーレンズ群の後端面側に設けられたテレビカメラ103aのCCD(図示せず)において合焦される。そして、前記CCDは、合焦された被検体の像を撮像信号として出力する。   Since the insertion unit 102a has the above-described configuration, an image of the subject is formed on the front end surface of the relay lens by the objective optical system, and then transmitted through the relay lens group. The transmitted light of the subject image is focused on a CCD (not shown) of the television camera 103a provided on the rear end face side of the relay lens group. The CCD outputs a focused image of the subject as an imaging signal.

テレビカメラ103aは、内視鏡装置本体105の本体処理装置43に対して着脱自在な構成を有するケーブル111を有している。このような構成により、テレビカメラ103aは、ケーブル111を介し、撮像信号を本体処理装置43に対して出力する。   The television camera 103 a includes a cable 111 having a configuration that is detachable from the main body processing device 43 of the endoscope apparatus main body 105. With such a configuration, the television camera 103 a outputs an imaging signal to the main body processing device 43 via the cable 111.

また、本実施例において用いられる内視鏡101は、例えば、図36に示すスコープ201のような、口腔カメラとして構成されたものであっても良い。   Further, the endoscope 101 used in the present embodiment may be configured as an oral camera, such as a scope 201 shown in FIG.

スコープ201は、光源部41と略同様の照明光を発する図示しないLED等の光源と、前記光源により照明された被検体の像を結像する図示しない対物光学系と、前記対物光学系の結像位置に設けられ、撮像した被検体の像を撮像信号として出力する図示しないCCDと、前記CCDに設けられた図示しない色フィルタとを先端部に有し、また、本体処理装置43に対して着脱自在な構成を有するケーブル201aを基端部に有している。   The scope 201 includes a light source such as an LED (not shown) that emits substantially the same illumination light as the light source unit 41, an objective optical system (not shown) that forms an image of a subject illuminated by the light source, and a connection between the objective optical system. A CCD (not shown) that is provided at the image position and outputs a captured image of the subject as an imaging signal, and a color filter (not shown) provided on the CCD are provided at the distal end portion. A cable 201a having a detachable configuration is provided at the base end.

また、本実施例において用いられる内視鏡101は、例えば、図37に示すスコープ301のような、生体表面に接触させて用いられるカメラとして構成されたものであっても良い。   Further, the endoscope 101 used in the present embodiment may be configured as a camera that is used in contact with the surface of a living body, such as a scope 301 shown in FIG.

スコープ301は、光源部41と略同様の照明光を発する図示しないLED等の光源と、前記光源により照明された被検体の像を結像する図示しない対物光学系と、前記対物光学系の結像位置に設けられ、撮像した被検体の像を撮像信号として出力する図示しないCCDと、前記CCDに設けられた図示しない色フィルタとが設けられた接触部301aと、本体処理装置43に対して着脱自在な構成を有し、接触部301aからの撮像信号を本体処理装置43に伝送するケーブル301bとを有している。   The scope 301 includes a light source such as an LED (not shown) that emits substantially the same illumination light as the light source unit 41, an objective optical system (not shown) that forms an image of a subject illuminated by the light source, and a connection between the objective optical system. For the main body processing device 43, a contact unit 301 a provided with an unillustrated CCD provided at an image position and outputting a captured image of the subject as an imaging signal, and a color filter (not illustrated) provided in the CCD. It has a detachable configuration, and has a cable 301 b that transmits an imaging signal from the contact portion 301 a to the main body processing device 43.

次に、本実施の形態における電子内視鏡装置100の動作について図4を参照して詳しく説明する。   Next, the operation of the electronic endoscope apparatus 100 according to the present embodiment will be described in detail with reference to FIG.

なお、以下においては、まず通常画像を観察する際の動作について説明し、後に分光画像を観察する際の動作について説明する。   In the following, the operation when observing a normal image will be described first, and the operation when observing a spectral image will be described later.

まず、光源部41の動作を説明する。制御部42からの制御信号に基づいて、チョッパー駆動部17は、所定の位置に設定され、チョッパー16を回転させる。ランプ15からの光束は、チョッパー16の切り欠き部を通過し、集光レンズにより、内視鏡101と光源部41の接続部にあるコネクタ11内に設けられた光ファイババンドルであるライトガイド14の入射端に、集光される。   First, the operation of the light source unit 41 will be described. Based on the control signal from the control unit 42, the chopper driving unit 17 is set to a predetermined position and rotates the chopper 16. The light beam from the lamp 15 passes through the notch portion of the chopper 16 and is a light guide 14 that is an optical fiber bundle provided in the connector 11 at the connection portion of the endoscope 101 and the light source portion 41 by a condenser lens. Condensed at the incident end of.

集光された光束は、ライトガイド14を通り、先端部103に設けられた照明光学系から被検体の体内に照射される。照射された光束は、被検体内で反射し、対物レンズ19を介して、CCD21において図6で示した色フィルタ別に信号が収集される。   The condensed light flux passes through the light guide 14 and is irradiated into the body of the subject from the illumination optical system provided at the distal end portion 103. The irradiated light beam is reflected in the subject, and signals are collected for each color filter shown in FIG.

収集された信号は、上記の輝度信号処理系と色信号処理系に並列に入力される。輝度信号系の輪郭補正部432には、色フィルタ別に収集された信号が画素ごとに加算され入力され、輪郭補正後、輝度信号処理部434に入力される。輝度信号処理部434では、輝度信号が生成され、通常画像生成部437に入力される。   The collected signals are input in parallel to the luminance signal processing system and the color signal processing system. The luminance signal-based contour correction unit 432 adds the signals collected for each color filter for each pixel and inputs them. After contour correction, the signals are input to the luminance signal processing unit 434. In the luminance signal processing unit 434, a luminance signal is generated and input to the normal image generating unit 437.

また一方で、CCD21で収集された信号は、色フィルタ毎にS/H回路433a乃至433cに入力され、それぞれR・G・B信号が生成される。さらにR・G・B信号は、色信号処理部435にて色信号が生成され、通常画像生成部437において、前記輝度信号および色信号からY信号、R−Y信号、B−Y信号が生成され、切換部439を介して、表示モニタ106に被検体の通常画像が表示される。   On the other hand, signals collected by the CCD 21 are input to the S / H circuits 433a to 433c for each color filter, and R, G, and B signals are respectively generated. Further, R, G, and B signals are generated by a color signal processing unit 435, and a normal image generation unit 437 generates a Y signal, an RY signal, and a BY signal from the luminance signal and the color signal. Then, the normal image of the subject is displayed on the display monitor 106 via the switching unit 439.

次に、分光画像を観察する際の動作について説明する。なお、通常画像の観察と同様の動作を行うものに関しては、ここでは省略する。   Next, the operation when observing a spectral image will be described. In addition, what performs the same operation | movement as observation of a normal image is abbreviate | omitted here.

操作者は、内視鏡装置本体105に設けられているキーボードあるいは内視鏡101の操作部104に設けられているスイッチ等を操作することにより、通常画像から分光画像を観察する指示を行う。この時、制御部42は、光源部41および本体処理装置43の制御状態を変更する。   The operator gives an instruction to observe the spectral image from the normal image by operating a keyboard or the like provided on the endoscope apparatus main body 105 or a switch or the like provided on the operation unit 104 of the endoscope 101. At this time, the control unit 42 changes the control state of the light source unit 41 and the main body processing device 43.

具体的には、必要に応じて、光源部41から照射される光量を変更する。上述のように、CCD21からの出力が飽和することは望ましくないため、分光画像の観察時は通常画像の観察時に比して照明光量を小さくする。また、制御部42は、CCDからの出力信号が飽和しないように光量を制御するとともに、飽和しない範囲にて照明光量を変化させることもできる。   Specifically, the amount of light emitted from the light source unit 41 is changed as necessary. As described above, since it is not desirable that the output from the CCD 21 is saturated, the amount of illumination light is made smaller when observing a spectral image than when observing a normal image. Further, the control unit 42 can control the light amount so that the output signal from the CCD is not saturated, and can change the illumination light amount in a range where the output signal is not saturated.

また、制御部42による本体処理装置43への制御変更としては、切換部439から出力される信号を通常画像生成部437の出力から色調整部440の出力に切換える。また、S/H回路433a乃至433cの出力は、マトリックス演算部436で増幅・加算処理が行われ、それぞれの帯域に応じて積算部438a乃至438cに出力され、積算処理後に色調整部440に出力される。チョッパー16で、照明光量を小さくした場合でも、積算部438a乃至438cにて、保存・積算することで、図2に示したように、信号強度を上げることができ、また、S/Nが向上した分光画像を得ることができる。   Further, as a control change to the main body processing device 43 by the control unit 42, the signal output from the switching unit 439 is switched from the output of the normal image generation unit 437 to the output of the color adjustment unit 440. Further, the outputs of the S / H circuits 433a to 433c are amplified and added by the matrix calculation unit 436, and are output to the integration units 438a to 438c according to the respective bands, and are output to the color adjustment unit 440 after the integration processing. Is done. Even when the amount of illumination light is reduced by the chopper 16, the signal intensity can be increased and the S / N can be improved as shown in FIG. 2 by storing and integrating in the integrating units 438 a to 438 c. Spectral images can be obtained.

以下、本実施例における具体的なマトリックス演算部436のマトリックス処理について記載する。本実施例では、図7に実線で示されたRGB色フィルタの分光感度特性から、同図中に示された理想的な狭帯域バンドパスフィルタF1乃至F3(ここではそれぞれの透過波長領域をF1:590nm〜620nm、F2:520nm〜560nm、F3:400nm〜440nmとした)に近いバンドパスフィルタ(以下擬似バンドパスフィルタと呼ぶ)を作成しようとした場合、前述の(1)式から(5)式に示した内容により、以下のマトリックスが最適となる。   Hereinafter, specific matrix processing of the matrix calculation unit 436 in the present embodiment will be described. In this embodiment, from the spectral sensitivity characteristics of the RGB color filter indicated by the solid line in FIG. 7, the ideal narrow-band bandpass filters F1 to F3 (in this case, the respective transmission wavelength regions are indicated by F1). : 590 nm to 620 nm, F2: 520 nm to 560 nm, F3: 400 nm to 440 nm) When trying to create a bandpass filter (hereinafter referred to as a pseudo bandpass filter), the above formula (1) (5) Depending on what is shown in the equation, the following matrix is optimal.

[数19]

Figure 2006341075
更に、(6)式及び(7)式に示した内容により補正を行うと、以下の補正係数を得る。 [Equation 19]
Figure 2006341075
Further, when correction is performed according to the contents shown in the equations (6) and (7), the following correction coefficients are obtained.

[数20]

Figure 2006341075
なお、(6)式に示す光源のスペクトルS(λ)は図9に示すものであり、(7)式に示す注目する生体の反射スペクトルH(λ)は図10に示すものである、という先見情報を使用している。 [Equation 20]
Figure 2006341075
Note that the spectrum S (λ) of the light source shown in the equation (6) is as shown in FIG. 9, and the reflection spectrum H (λ) of the target organism shown in the equation (7) is as shown in FIG. Use foresight information.

従って、マトリックス演算部436にて行われる処理は、数学的には以下のマトリックス演算と同値となる。   Therefore, the processing performed by the matrix calculation unit 436 is mathematically equivalent to the following matrix calculation.

[数21]

Figure 2006341075
このマトリックス演算を行うことにより擬似フィルタ特性(図7にはフィルタ擬似F1乃至F3の特性として示されている)が得られる。即ち、上述のマトリックス処理は、カラー画像信号に、上述のようにして予め生成された擬似バンドパスフィルタ(マトリックス)を用いて、分光画像信号を作成するものである。 [Equation 21]
Figure 2006341075
By performing this matrix operation, pseudo filter characteristics (shown as characteristics of filter pseudo F1 to F3 in FIG. 7) are obtained. That is, the matrix processing described above creates a spectral image signal using a pseudo bandpass filter (matrix) generated in advance as described above for a color image signal.

この擬似フィルタ特性を用いて生成された内視鏡画像の一例を以下に示す。   An example of an endoscopic image generated using this pseudo filter characteristic is shown below.

図11に示すように、体腔内組織45は、例えば深さ方向に異なった血管等の吸収体分布構造を持つ場合が多い。粘膜表層付近には主に毛細血管46が多く分布し、またこの層より深い中層には毛細血管の他に毛細血管より太い血管47が分布し、さらに深層にはさらに太い血管48が分布するようになる。   As shown in FIG. 11, the body cavity tissue 45 often has an absorber distribution structure such as blood vessels that differ in the depth direction. A large number of capillaries 46 are mainly distributed near the surface of the mucous membrane, and a blood vessel 47 that is thicker than the capillaries is distributed in addition to the capillaries in the middle layer deeper than this layer, and a thicker blood vessel 48 is further distributed in the deep layer. become.

一方、体腔内組織45に対する光の深さ方向の深達度は、光の波長に依存しており、可視域を含む照明光は、図12に示すように、青(B)色のような波長が短い光の場合、生体組織での吸収特性及び散乱特性により表層付近までしか光は深達せず、そこまでの深さの範囲で吸収、散乱を受け、表面から出た光が観測される。また、青(B)色光より波長が長い、緑(G)色光の場合、青(B)色光が深達する範囲よりさらに深い所まで深達し、その範囲で吸収、散乱を受け、表面から出た光が観測される。さらにまた、緑(G)色光より波長が長い、赤(R)色光は、さらに深い範囲まで光が到達する。   On the other hand, the depth of light in the body cavity tissue 45 in the depth direction depends on the wavelength of the light, and the illumination light including the visible region has a blue (B) color as shown in FIG. In the case of light with a short wavelength, the light only reaches the surface layer due to the absorption and scattering characteristics in living tissue, and is absorbed and scattered in the depth range up to that point, and light emitted from the surface is observed. . In the case of green (G) light, which has a wavelength longer than that of blue (B) light, it reaches deeper than the range where blue (B) light deepens, absorbs and scatters within that range, and exits from the surface. Light is observed. Still further, red (R) light having a wavelength longer than that of green (G) light reaches a deeper range.

体腔内組織45の通常観察時におけるRGB光は、図13に示すように、各波長域がオーバーラップしているために、
(1)B帯域光によりCCD21で撮像される撮像信号には図14に示すような浅層での組織情報を多く含む浅層及び中層組織情報を有するバンド画像が撮像され、
(2)また、G帯域光によりCCD21で撮像される撮像信号には図15に示すような中層での組織情報を多く含む浅層及び中層組織情報を有するバンド画像が撮像され、
(3)さらにR帯域光によりCCD21で撮像される撮像信号には図16に示すような深層での組織情報を多く含む中層及び深層組織情報を有するバンド画像が撮像される。
The RGB light during normal observation of the body cavity tissue 45, as shown in FIG.
(1) Band images having shallow layer and middle layer tissue information including a lot of tissue information in the shallow layer as shown in FIG.
(2) In addition, the image signal picked up by the CCD 21 with the G-band light is picked up with a shallow layer image including a lot of tissue information in the middle layer and a band image having the middle layer tissue information as shown in FIG.
(3) Further, a band image having middle layer and deep layer tissue information including a lot of tissue information in the deep layer as shown in FIG.

そして内視鏡装置本体105により、これらRGB撮像信号を信号処理することで、内視鏡画像としては所望あるいは自然な色再現の内視鏡画像を得ることが可能となる。   Then, the endoscope apparatus body 105 performs signal processing on these RGB imaging signals, so that it is possible to obtain an endoscopic image having a desired or natural color reproduction as an endoscopic image.

上述のマトリックス演算部436におけるマトリックス処理は、カラー画像信号に、上述のようにして予め生成された擬似バンドパスフィルタ(マトリックス)を用いて、分光画像信号を作成するものである。例えば図17に示すような所望の深層組織情報が抽出可能な離散的で狭帯域な分光特性の擬似バンドパスフィルタF1乃至F3を用いて、分光画像信号F1乃至F3が得られる。擬似バンドパスフィルタF1乃至F3は、図17に示すように、各波長域がオーバーラップしていないために、
(4)擬似バンドパスフィルタF3による分光画像信号F3には図18に示すような浅層での組織情報を有するバンド画像が撮像され、また、
(5)擬似バンドパスフィルタF2による分光画像信号F2には図19に示すような中層での組織情報を有するバンド画像が撮像され、さらに
(6)擬似バンドパスフィルタF1による分光画像信号F1には図20に示すような深層での組織情報を有するバンド画像が撮像されれる。
The matrix processing in the matrix calculation unit 436 is to create a spectral image signal by using the pseudo bandpass filter (matrix) generated in advance as described above for the color image signal. For example, spectral image signals F1 to F3 are obtained using pseudo bandpass filters F1 to F3 having discrete and narrow-band spectral characteristics capable of extracting desired deep tissue information as shown in FIG. As shown in FIG. 17, the pseudo bandpass filters F1 to F3 are not overlapped with each other.
(4) A band image having tissue information in a shallow layer as shown in FIG. 18 is captured in the spectral image signal F3 by the pseudo bandpass filter F3,
(5) A band image having tissue information in the middle layer as shown in FIG. 19 is captured in the spectral image signal F2 by the pseudo bandpass filter F2, and (6) the spectral image signal F1 by the pseudo bandpass filter F1 A band image having tissue information in the deep layer as shown in FIG. 20 is captured.

つぎに、このようにして得られた分光画像信号F1乃至F3に対して色調整部440は、最も単純な色変換の例として、分光画像信号F1をカラーチャンネルR(ch)に、分光画像信号F2をカラーチャンネルG(ch)に、分光画像信号F3をカラーチャンネルB(ch)に、それぞれ割り付け、切換部439を介して、表示モニタ106に出力する。   Next, as an example of the simplest color conversion, the color adjustment unit 440 uses the spectral image signal F1 as a color channel R (ch) as an example of the simplest color conversion for the spectral image signals F1 to F3 thus obtained. F2 is assigned to the color channel G (ch), and the spectral image signal F3 is assigned to the color channel B (ch), and output to the display monitor 106 via the switching unit 439.

色調整部440は、図21に示すように、3×3マトリックス回路61と、3×3マトリックス回路61の前後に設けた3組のLUT62a,62b,62c,63a,63b,63cと、LUT62a,62b,62c,63a,63b,63cのテーブルデータや3×3マトリックス回路61の係数を変更する係数変更回路64と、を備えた色変換処理回路440aで構成されている。   As shown in FIG. 21, the color adjustment unit 440 includes a 3 × 3 matrix circuit 61, three sets of LUTs 62a, 62b, 62c, 63a, 63b, and 63c provided before and after the 3 × 3 matrix circuit 61, and an LUT 62a, The color conversion processing circuit 440a includes table data 62b, 62c, 63a, 63b, and 63c and a coefficient changing circuit 64 that changes coefficients of the 3 × 3 matrix circuit 61.

色変換処理回路440aに入力する分光画像信号F1乃至F3は、各バンドデータ毎にLUT62a,62b,62cにより逆γ補正や、非線形なコントラスト変換処理等が行われる。   The spectral image signals F1 to F3 input to the color conversion processing circuit 440a are subjected to inverse γ correction, nonlinear contrast conversion processing, and the like for each band data by the LUTs 62a, 62b, and 62c.

次に、3×3マトリックス回路61にて、色変換が行われた後、後段のLUT63a,63b,63cにてγ補正や、適当な階調変換処理が行われる。   Next, after color conversion is performed in the 3 × 3 matrix circuit 61, γ correction and appropriate gradation conversion processing are performed in the subsequent LUTs 63a, 63b, and 63c.

これらLUT62a,62b,62c,63a,63b,63cのテーブルデータや3×3マトリックス回路61の係数を、係数変更回路64で変更することができる。   The table data of these LUTs 62a, 62b, 62c, 63a, 63b, 63c and the coefficients of the 3 × 3 matrix circuit 61 can be changed by the coefficient changing circuit 64.

係数変更回路64による変更は、内視鏡101の操作部等に設けられた処理変換スイッチ(図示せず)からの制御信号に基づいて行われる。   The change by the coefficient changing circuit 64 is performed based on a control signal from a processing conversion switch (not shown) provided in the operation unit or the like of the endoscope 101.

これら制御信号を受けた係数変更回路64は、予め色調整部440内に記せされている係数データから適切なデータを呼び出し、このデータで、現在の回路係数を書き換える。   Upon receiving these control signals, the coefficient changing circuit 64 calls appropriate data from the coefficient data previously written in the color adjustment unit 440, and rewrites the current circuit coefficient with this data.

次に具体的な色変換処理内容について述べる。式(22)に色変換式の一例を示す。   Next, specific color conversion processing contents will be described. An example of the color conversion formula is shown in Formula (22).

[数22]

Figure 2006341075
この式(22)による処理は、分光チャンネル画像信号Rch、Gch、Bchに分光画像信号F1乃至F3を波長の短い順に割り当てる色変換である。 [Equation 22]
Figure 2006341075
The processing according to the equation (22) is color conversion that assigns the spectral image signals F1 to F3 to the spectral channel image signals Rch, Gch, and Bch in the order of shorter wavelengths.

これらカラーチャンネルR(ch)、G(ch)、B(ch)によるカラー画像で観察した場合、例えぱ図22に示すような画像となる。太い血管が深い位置にあり、分光画像信号F3が反映され、所定の目標色としてのカラー画像としては青色系のパターンとして示される。中層付近にある血管網は分光画像信号F2が強く反映されるので、所定の目標色としてのカラー画像としては赤色系のパターンとして示される。血管網の内、粘膜表面付近に存在するものは所定の目標色としての黄色系のパターンとして表現される。   When observed with a color image of these color channels R (ch), G (ch), and B (ch), an image as shown in FIG. 22, for example, is obtained. A thick blood vessel is in a deep position, the spectral image signal F3 is reflected, and a color image as a predetermined target color is shown as a blue pattern. Since the spectral image signal F2 is strongly reflected in the vascular network near the middle layer, the color image as the predetermined target color is shown as a red pattern. Among the vascular network, those existing near the mucosal surface are expressed as a yellow pattern as a predetermined target color.

とくに、この粘膜表面付近のパターンの変化は、早期病変の発見鑑別診断にとって重要である。しかし、所定の目標色としての黄色系のパターンは、背景粘膜とのコントラストが弱く、視認性が低いという傾向がある。   In particular, this pattern change near the mucosal surface is important for early differential detection and diagnosis of lesions. However, the yellow pattern as the predetermined target color tends to have low contrast with the background mucosa and low visibility.

そこで、この粘膜表面付近のパターンをより明瞭に再現するために、式(23)に示す変換が有効となる。   Therefore, in order to reproduce the pattern near the mucosal surface more clearly, the conversion shown in Expression (23) is effective.

[数23]

Figure 2006341075
この式(23)による処理は、分光画像信号F1をある一定の比率で分光画像信号F2に混合し生成されたデータを所定の目標色として新たに分光Gチャンネル画像信号Gchとする変換例であり、血管網などの吸収散乱体が深さ位置で異なることをより明確化することが可能となる。 [Equation 23]
Figure 2006341075
The processing according to the equation (23) is a conversion example in which the spectral image signal F1 is mixed with the spectral image signal F2 at a certain ratio and the generated data is newly set as a spectral G channel image signal Gch as a predetermined target color. Further, it becomes possible to further clarify that the absorbing scatterers such as the blood vessel network are different in the depth position.

したがって、係数変更回路64を通じてマトリックス係数を調整することで、ユーザは表示効果を調整することが可能となる。動作としては、内視鏡101の操作部に設けられたモード切替スイッチ(図示せず)に連動して画像処理部内では、スルー動作から、マトリックス係数がデフォルト値に設定される。   Accordingly, by adjusting the matrix coefficient through the coefficient changing circuit 64, the user can adjust the display effect. As an operation, the matrix coefficient is set to a default value from the through operation in the image processing unit in conjunction with a mode change switch (not shown) provided in the operation unit of the endoscope 101.

ここでいうスルー動作とは、3×3マトリックス回路61には単位行列、LUT62a,62b,62c,63a,63b,63cは非変換テーブルを搭載した状態をいう。デフォルト値とは、マトリックス係数ωG、ωBに、例えばωG=0.2、ωB=0.8という設定値を与えるということである。 The through operation here means a state in which the 3 × 3 matrix circuit 61 is mounted with a unit matrix, and the LUTs 62a, 62b, 62c, 63a, 63b, and 63c are mounted with non-conversion tables. The default value means that set values of, for example, ωG = 0.2 and ωB = 0.8 are given to the matrix coefficients ω G and ω B.

そして、ユーザは内視鏡101の操作部等を操作して、この係数をωG=0.4、ωB=0.6などというように調整を行なう。LUT62a,62b,62c,63a,63b,63cには、必要に応じて逆γ補正テープル、γ補正テーブルが適用される。   Then, the user operates the operation unit or the like of the endoscope 101 and adjusts the coefficient so that ωG = 0.4, ωB = 0.6, and the like. A reverse γ correction table and a γ correction table are applied to the LUTs 62a, 62b, 62c, 63a, 63b, and 63c as necessary.

色変換処理回路440aは3×3マトリックス回路61からなるマトリックス演算器により色変換するとしたが、これに限らず、数値演算プロセッサ(CPU)やLUTで色変換処理回路を構成してもよい。   The color conversion processing circuit 440a performs color conversion using a matrix computing unit including the 3 × 3 matrix circuit 61. However, the present invention is not limited to this, and the color conversion processing circuit may be configured by a numerical operation processor (CPU) or LUT.

例えば、上記実施例では、3×3マトリックス回路61を中心とした構成により色変換処理回路30aを示したが、図23に示すように、色変換処理回路30aを各バンドに対応した3次元LUT65で置き換えても同様の効果を得ることができる。この場合、係数変更回路64は、内視鏡101の操作部等に設けられた処理変換スイッチ(図示せず)からの制御信号に基づいてテーブルの内容を変更する動作を行なう。   For example, in the above embodiment, the color conversion processing circuit 30a is shown with a configuration centered on the 3 × 3 matrix circuit 61. However, as shown in FIG. 23, the color conversion processing circuit 30a is a three-dimensional LUT 65 corresponding to each band. The same effect can be obtained by replacing with. In this case, the coefficient changing circuit 64 performs an operation of changing the contents of the table based on a control signal from a processing conversion switch (not shown) provided in the operation unit or the like of the endoscope 101.

なお、擬似バンドパスフィルタF1乃至F3のフィルタ特性は可視光域に限定されず、擬似バンドパスフィルタF1乃至F3の第1の変形例として、フィルタ特性を例えば図24に示すようなの離散的な分光特性の狭帯域としても良い。この第1の変形例のフィルタ特性は、生体表面の凹凸と極深層付近の吸収体を観察するために、F3を近紫外域に設定し、F1を近赤外域に設定することで、通常観察では得られない画像情報を得るのに好適である。   Note that the filter characteristics of the pseudo bandpass filters F1 to F3 are not limited to the visible light range. As a first modification of the pseudo bandpass filters F1 to F3, the filter characteristics are discrete spectrum as shown in FIG. It may be a narrow band of characteristics. The filter characteristic of the first modification is that normal observation is performed by setting F3 in the near ultraviolet region and F1 in the near infrared region in order to observe the irregularities on the surface of the living body and the absorber near the extreme deep layer. It is suitable for obtaining image information that cannot be obtained by.

また、擬似バンドパスフィルタF1乃至F3の第2の変形例として、図25に示すように擬似バンドパスフィルタF2の代わりに、フィルタ特性が短波長域で近接する2つの擬似バンドパスフィルタF3a、F3bとしても良い。これは、この付近の波長帯域が生体の極表層付近までしか深達しないことを利用して、吸収特性より散乱特性の微妙な差を映像化するのに好適である。医学上は、早期ガンなど粘膜表層付近の細胞配列の乱れを伴う疾患の識別診断に利用することが想定される。   As a second modification of the pseudo bandpass filters F1 to F3, two pseudo bandpass filters F3a and F3b whose filter characteristics are close in the short wavelength region are used instead of the pseudo bandpass filter F2 as shown in FIG. It is also good. This is suitable for imaging a subtle difference in the scattering characteristic rather than the absorption characteristic by utilizing the fact that the wavelength band in the vicinity reaches only near the extreme surface layer of the living body. Medically, it is assumed to be used for identification diagnosis of diseases such as early cancer, which are accompanied by disorder of cell arrangement near the mucosal surface layer.

さらに、擬似バンドパスフィルタF1乃至F3の第3の変形例として、図26に示すように所望の層組織情報が抽出可能な離散的な分光特性の2バンドの狭帯域のフィルタ特性の2つの擬似バンドパスフィルタF2、F3をマトリックス演算部436で生成するようにしてもよい。   Furthermore, as a third modification of the pseudo bandpass filters F1 to F3, two pseudo-bandwidth narrowband filter characteristics of two discrete spectral characteristics from which desired layer structure information can be extracted as shown in FIG. The band pass filters F2 and F3 may be generated by the matrix calculation unit 436.

図26の擬似バンドパスフィルタF2、F3の場合、色調整部440は、狭帯域の分光画像観察時での画像のカラー化において、分光チャンネル画像信号Rch←分光画像信号F2、分光チャンネル画像信号Gch←分光画像信号F3、分光チャンネル画像信号Bch←分光画像信号F3として、RGB3チャンネルのカラー画像を生成する。   In the case of the pseudo bandpass filters F2 and F3 in FIG. 26, the color adjustment unit 440 performs spectral channel image signal Rch ← spectral image signal F2, spectral channel image signal Gch in colorization of an image when observing a narrowband spectral image. ← RGB 3 channel color image is generated as spectral image signal F3, spectral channel image signal Bch ← spectral image signal F3.

すなわち、分光画像信号F2及び分光画像信号F3に対して、色調整部440は以下の式(24)によりRGB3チャンネルの分光カラーチャンネル画像信号(Rch、Gch、Bch)を生成する。   That is, for the spectral image signal F2 and the spectral image signal F3, the color adjustment unit 440 generates RGB three-channel spectral color channel image signals (Rch, Gch, Bch) by the following equation (24).

[数24]

Figure 2006341075
例えば、h11=1、h12=0、h21=0、h22=1.2、h31=0、h32=0.8とする。 [Equation 24]
Figure 2006341075
For example, h11 = 1, h12 = 0, h21 = 0, h22 = 1.2, h31 = 0, h32 = 0.8.

例えば基本分光特性の分光画像F3は中心波長が主に415nmに相当する画像、基本分光特性の分光画像F2は中心波長が主に540nmに相当する画像である。   For example, the spectral image F3 with basic spectral characteristics is an image whose central wavelength mainly corresponds to 415 nm, and the spectral image F2 with basic spectral characteristics is an image whose central wavelength mainly corresponds to 540 nm.

また、例えば、基本分光特性の分光画像F3は中心波長が主に415nmに相当する画像、基本分光特性の分光画像F2は中心波長が主に540nmに相当する画像、基本分光特性の分光画像F1は中心波長が主に600nmに相当する画像として演算されていても、色調整部440でF1画像を使用せずに、F2、F3画像でカラー画像を構成することもできる。この場合、式(24)の代りに以下の式(24’)のマトリックス演算を適用すればよい。   Further, for example, the spectral image F3 having the basic spectral characteristic is an image whose central wavelength is mainly equivalent to 415 nm, the spectral image F2 having the basic spectral characteristic is an image mainly corresponding to the central wavelength is 540 nm, and the spectral image F1 having the basic spectral characteristic is Even if the center wavelength is calculated as an image corresponding mainly to 600 nm, the color adjusting unit 440 can use the F2 and F3 images without using the F1 image. In this case, a matrix operation of the following equation (24 ′) may be applied instead of the equation (24).

Rch=h11×F1+h12×F2+h13×F3
Gch=h21×F1+h22×F2+h23×F3
Bch=h31×F1+h32×F2+h33×F3 …(24’)
上記式(24’)のマトリックス演算で、h11、h13、h21、h22、h31、h32の係数を0として、他係数を所定の数値に設定すれrばよい。
Rch = h11 × F1 + h12 × F2 + h13 × F3
Gch = h21 × F1 + h22 × F2 + h23 × F3
Bch = h31 × F1 + h32 × F2 + h33 × F3 (24 ′)
In the matrix calculation of the above equation (24 ′), the coefficients of h11, h13, h21, h22, h31, and h32 may be set to 0 and the other coefficients may be set to predetermined numerical values.

このように本実施例によれば、通常の電子内視鏡画像(通常画像)を生成するためのカラー画像信号を利用して、擬似的な狭帯域フィルタを生成することにより、分光画像用の光学的波長狭帯域バンドパスフィルタを用いずに、血管パターン等の所望の深部の組織情報を有する分光画像を得ることができると共に、色調整部440の色変換処理回路440aのパラメータを分光画像に応じて設定することで、狭帯域の分光画像観察時の深達度情報という特徴を生かした表現方法を実現することが可能となり、生体組織の組織表面近くの所望の深部の組織情報を効果的に分離して視認することできる。   As described above, according to the present embodiment, a pseudo narrowband filter is generated by using a color image signal for generating a normal electronic endoscopic image (normal image). A spectral image having tissue information of a desired deep portion such as a blood vessel pattern can be obtained without using an optical wavelength narrow-band bandpass filter, and the parameters of the color conversion processing circuit 440a of the color adjustment unit 440 are converted into spectral images. By setting it accordingly, it becomes possible to realize an expression method that makes use of the feature of depth-of-depth information when observing a narrow-band spectral image, and it is possible to effectively obtain tissue information of a desired deep part near the tissue surface of a living tissue. It can be visually recognized separately.

よって、色調整部440は、複数の分光信号の中で最も高いコントラストで出力したい被検体情報を含むチャンネルを、表示モニタ106において輝度の画像として再現されるように、信号変換を行う。   Therefore, the color adjustment unit 440 performs signal conversion so that a channel including subject information to be output with the highest contrast among a plurality of spectral signals is reproduced as a luminance image on the display monitor 106.

また、特に、色調整部440において、
(1)2バンドの分光画像の場合、例えば415nmに相当する画像をカラーチャンネルG(ch)、B(ch)に、例えば540nmに相当する画像をカラーチャンネルR(ch)に割り付けた場合、
あるいは、
(2)3バンドの分光画像の場合、例えば415nmに相当する画像をカラーチャンネルB(ch)に、例えば445nmに相当する画像をカラーチャンネルG(ch)に、例えば500nmに相当する画像をカラーチャンネルR(ch)に割り付けた場合、次の画像効果が得られる。
In particular, in the color adjustment unit 440,
(1) In the case of a two-band spectral image, for example, when an image corresponding to 415 nm is assigned to the color channel G (ch) and B (ch), for example, an image corresponding to 540 nm is assigned to the color channel R (ch),
Or
(2) In the case of a three-band spectral image, for example, an image corresponding to 415 nm is used as the color channel B (ch), an image corresponding to 445 nm is used as the color channel G (ch), and an image corresponding to 500 nm is used as the color channel. When assigned to R (ch), the following image effect is obtained.

・生体組織の最表層の上皮、あるいは粘膜が低彩度の色で再現され、最表層の毛細血管が低輝度、つまり暗線として再現されることで、最表層の毛細血管の高い視認性が得られる。 ・ The epithelium or mucous membrane of the outermost layer of living tissue is reproduced with low saturation color, and the outermost capillaries are reproduced with low brightness, that is, dark lines, so that high visibility of the outermost capillaries is obtained. It is done.

・同時に、毛細血管より深い位置の血管が色相方向で青方向へ回転して再現されるため、最表層の毛細血管との識別がより容易になる。 At the same time, since the blood vessel at a deeper position than the capillary is rotated and reproduced in the blue direction in the hue direction, it is easier to distinguish from the outermost capillary.

また、前記チャンネルの割り当て方法によれば、大腸内視鏡検査において、通常観察下では黄色調で観測される残渣および胆汁が赤色調で観測される。   Further, according to the channel assignment method, in colonoscopy, residues and bile observed in a yellow tone under normal observation are observed in a red tone.

図27は本発明の実施例2に係る電子内視鏡装置の構成を示すブロック図である。   FIG. 27 is a block diagram illustrating a configuration of the electronic endoscope apparatus according to the second embodiment of the present invention.

実施例2は、実施例1とほとんど同じであるので、異なる点のみ説明し、同一の構成には同じ符号をつけ説明は省略する。   Since the second embodiment is almost the same as the first embodiment, only different points will be described.

本実施例は、主として実施例1と、照明光量の制御を行う光源部41が異なるものである。本実施例では、光源部41から照射される光量の制御をチョッパーではなく、ランプ15の電流制御により行う。具体的には、図27に示されたランプ15に電流制御部18が設けられている。   This embodiment mainly differs from the first embodiment in the light source unit 41 that controls the amount of illumination light. In this embodiment, the amount of light emitted from the light source unit 41 is controlled not by the chopper but by the current control of the lamp 15. Specifically, a current control unit 18 is provided in the lamp 15 shown in FIG.

本実施例の動作としては、制御部42が電流制御部18を制御して、RGBのいずれのカラー画像信号も飽和状態とならないように、ランプ15に流れる電流の制御を行う。これにより、ランプ15への発光のために使用される電流が制御されるため、その光量は、その電流の大きさに応じて変化する。   As an operation of this embodiment, the control unit 42 controls the current control unit 18 to control the current flowing through the lamp 15 so that none of the RGB color image signals are saturated. Thereby, since the current used for light emission to the lamp 15 is controlled, the amount of light changes in accordance with the magnitude of the current.

なお、その他の動作に関しては、実施例1と同様であるため、ここでは省略する。   Since other operations are the same as those in the first embodiment, they are omitted here.

本実施例によると、実施例1と同様、血管パターンが鮮明に表示される分光画像を得ることができる。また、本実施の形態では、実施例1のようにチョッパーを用いた光量制御方法に比して、制御方法が簡単であるという利点がある。   According to the present embodiment, as in the first embodiment, a spectral image in which the blood vessel pattern is clearly displayed can be obtained. Further, the present embodiment has an advantage that the control method is simpler than the light amount control method using the chopper as in the first embodiment.

図28は本発明の実施例3に係るマトリックス演算部の構成を示すブロック図である。   FIG. 28 is a block diagram illustrating the configuration of the matrix calculation unit according to the third embodiment of the present invention.

実施例3は、実施例1とほとんど同じであるので、異なる点のみ説明し、同一の構成には同じ符号をつけ説明は省略する。   Since the third embodiment is almost the same as the first embodiment, only different points will be described, and the same components are denoted by the same reference numerals and description thereof will be omitted.

本実施例は、主として実施例1とマトリックス演算部436の構成が異なるものである。実施例1では、マトリックス演算を電子回路による、いわゆるハードウェア処理により行うこととしたが、図28の本実施例では、このマトリックス演算を数値データ処理(プログラムを用いたソフトウェアによる処理)により行う。   This embodiment mainly differs from the first embodiment in the configuration of the matrix calculation unit 436. In the first embodiment, the matrix operation is performed by so-called hardware processing using an electronic circuit. However, in this embodiment shown in FIG. 28, this matrix operation is performed by numerical data processing (processing by software using a program).

本実施例におけるマトリックス演算部436の具体的な構成を図28に示す。本マトリックス演算部436は、RGBそれぞれのカラー画像信号を記憶しておく画像メモリ50を有する。また、式(21)に示されたマトリックス「A’」のそれぞれの値が数値データとして記憶されている係数レジスタ51を有する。   A specific configuration of the matrix calculation unit 436 in the present embodiment is shown in FIG. The matrix calculation unit 436 includes an image memory 50 that stores RGB color image signals. The coefficient register 51 stores each value of the matrix “A ′” shown in the equation (21) as numerical data.

係数レジスタ51と画像メモリ50は、乗算器53a乃至53iに接続され、さらに乗算器53a、53d、53gは、乗算器54aに接続され、乗算器54aの出力が、図4における積算部438aと接続される。また、乗算器53b、53e、53hは、乗算器54bに接続され、その出力は積算部438bと接続される。また、乗算器53c、53f、53iは、乗算器54cに接続され、その出力が積算部438cと接続される。   The coefficient register 51 and the image memory 50 are connected to the multipliers 53a to 53i, the multipliers 53a, 53d, and 53g are connected to the multiplier 54a, and the output of the multiplier 54a is connected to the integrating unit 438a in FIG. Is done. The multipliers 53b, 53e, and 53h are connected to the multiplier 54b, and the output thereof is connected to the integrating unit 438b. The multipliers 53c, 53f, and 53i are connected to the multiplier 54c, and the output thereof is connected to the integrating unit 438c.

本実施例の動作としては、入力されたRGB画像データは、一度画像メモリ50に記憶される。次に、所定の記憶装置(図示しない)に保存されている演算プログラムにより、係数レジスタ51からマトリックス「A’」の各計数が画像メモリ50に記憶されたRGB画像データと、乗算器で乗算される。   As an operation of this embodiment, the input RGB image data is once stored in the image memory 50. Next, each count of the matrix “A ′” from the coefficient register 51 is multiplied by the multiplier and the RGB image data stored in the image memory 50 by a calculation program stored in a predetermined storage device (not shown). The

なお、図28には、R信号と各マトリックス計数が乗算器53a乃至53cで乗算される例が示されている。また、同図のように、G信号と各マトリックス計数が乗算器53d乃至53fで乗算され、B信号と各マトリックス計数が乗算器53g乃至53iで乗算される。マトリックス計数とそれぞれ乗算されたデータは、乗算器53a、53d、53gの出力が、乗算器54aで、乗算器53b、53e、53hの出力が、乗算器54bで、また、乗算器53c、53f、53iの出力は、乗算器54cでそれぞれ乗算される。乗算器54aの出力は、積算部438aに送られる。また、乗算器54b、乗算器54cの出力は、それぞれ積算部438b、438cに送られる。   FIG. 28 shows an example in which the R signal and each matrix count are multiplied by multipliers 53a to 53c. Also, as shown in the figure, the G signal and each matrix count are multiplied by multipliers 53d to 53f, and the B signal and each matrix count are multiplied by multipliers 53g to 53i. The data multiplied by the matrix count is obtained by multiplying the outputs of the multipliers 53a, 53d and 53g by the multiplier 54a, the outputs of the multipliers 53b, 53e and 53h by the multiplier 54b, and the multipliers 53c, 53f, The outputs of 53i are respectively multiplied by the multiplier 54c. The output of the multiplier 54a is sent to the integrating unit 438a. The outputs of the multiplier 54b and the multiplier 54c are sent to the integrating units 438b and 438c, respectively.

図28の本実施例によると、実施例1と同様、血管パターンが鮮明に表示される分光画像を得ることができる。   According to the present embodiment in FIG. 28, as in the first embodiment, a spectral image in which the blood vessel pattern is clearly displayed can be obtained.

また、本実施例では、実施例1のようにハードウェアによってマトリックス処理を行うのではなく、ソフトウェアを用いて行うため、例えば、各マトリックス係数の変更などに迅速に対応することができる。   Further, in the present embodiment, the matrix processing is not performed by hardware as in the first embodiment, but is performed by using software, and therefore, for example, it is possible to quickly cope with a change in each matrix coefficient.

また、マトリックス計数を結果の値のみ、即ち、マトリックス「A’」としてではなく、S(λ)、H(λ)、R(λ)、G(λ)、B(λ)別に記憶しておき、必要に応じて演算することによりマトリックス「A’」を求めて使用するとした場合には、この中の1つの要素のみを変更することができ、利便性が向上する。例えば、照明光の分光特性S(λ)のみの変更等が可能である。   In addition, the matrix count is stored not only as a result value, that is, as a matrix “A ′”, but separately as S (λ), H (λ), R (λ), G (λ), and B (λ). When the matrix “A ′” is obtained and used by performing calculations as necessary, only one of the elements can be changed, and convenience is improved. For example, it is possible to change only the spectral characteristic S (λ) of the illumination light.

図29及び図30は本発明の実施例4に係わり、図29は電子内視鏡装置の構成を示すブロック図、図30は図29のCCDの電荷蓄積時間を示す図である。   29 and 30 relate to the fourth embodiment of the present invention, FIG. 29 is a block diagram showing the configuration of the electronic endoscope apparatus, and FIG. 30 is a diagram showing the charge accumulation time of the CCD of FIG.

実施例4は、実施例1とほとんど同じであるので、実施例1と異なる点のみ説明し、同一の構成要素には同一符号をつけ説明は省略する。   Since the fourth embodiment is almost the same as the first embodiment, only differences from the first embodiment will be described, and the same components are denoted by the same reference numerals and description thereof will be omitted.

本実施例は、主として実施例1と光源部41およびCCD21が異なるものである。実施例1では、CCD21に図6で示したカラーフィルタが設けられ、このカラーフィルタによってカラー信号を生成するいわゆる同時式であったのに対し、本実施例では、照明光を1フレームの期間にRGBの順に照明してカラー信号を生成するいわゆる面順次式を用いる。   In the present embodiment, the light source unit 41 and the CCD 21 are mainly different from the first embodiment. In the first embodiment, the color filter shown in FIG. 6 is provided in the CCD 21 and a color signal is generated by this color filter. In contrast, in this embodiment, the illumination light is emitted in a period of one frame. A so-called frame sequential method is used in which color signals are generated by illuminating in the order of RGB.

図29に示すように、本実施例における光源部41は、ランプ15の前面に調光を行う絞り25が設けられ、絞り25のさらに前面には、R,G,Bの面順次光を出射するために1フレームで例えば1回転するRGBフィルタ23が設けられている。RGBフィルタ23は、色分解部を構成する。また、絞り25は、光量制御部としての絞り制御部24に接続されており、絞り制御部24からの制御信号に応じて、ランプ15から照射された光束のうち透過させる光束を制限し、光量を変化させることで、調光可能としている。また、RGB回転フィルタ23は、RGB回転フィルタ制御部26に接続され、所定の回転速度で回転する。   As shown in FIG. 29, the light source unit 41 in the present embodiment is provided with a diaphragm 25 for dimming the front surface of the lamp 15, and R, G, B plane sequential light is emitted further on the front surface of the diaphragm 25. For this purpose, an RGB filter 23 that rotates, for example, once in one frame is provided. The RGB filter 23 constitutes a color separation unit. The diaphragm 25 is connected to a diaphragm control unit 24 serving as a light amount control unit, and restricts a light beam to be transmitted among light beams emitted from the lamp 15 in accordance with a control signal from the diaphragm control unit 24. Dimming is possible by changing. The RGB rotation filter 23 is connected to the RGB rotation filter control unit 26 and rotates at a predetermined rotation speed.

本実施例における光源部の動作としては、ランプ15から出力された光束が、絞り25で所定の光量に制限され、絞り25を透過した光束は、RGB回転フィルタ23を介することによって、所定の時間毎にR・G・Bそれぞれの照明光として、光源部から出力される。また、それぞれの照明光は、被検体内で反射し、CCD21で受光される。CCD21で得られた信号は、照射される時間に応じて、内視鏡装置本体105に設けられた切換部(図示しない)で振り分けられ、S/H回路433a乃至433cにそれぞれ入力される。つまり、光源部41からRのフィルタを介した照明光が照射された場合には、CCD21で得られた信号は、S/H回路433aに入力されることになる。なお、その他の動作については実施例1と同様であるため、ここでは省略する。   As the operation of the light source unit in the present embodiment, the light beam output from the lamp 15 is limited to a predetermined light amount by the diaphragm 25, and the light beam transmitted through the diaphragm 25 passes through the RGB rotation filter 23 for a predetermined time. The light is output from the light source unit as R, G, and B illumination light each time. Each illumination light is reflected in the subject and received by the CCD 21. Signals obtained by the CCD 21 are distributed by a switching unit (not shown) provided in the endoscope apparatus main body 105 according to the irradiation time, and input to the S / H circuits 433a to 433c, respectively. That is, when the illumination light is irradiated from the light source unit 41 through the R filter, the signal obtained by the CCD 21 is input to the S / H circuit 433a. Other operations are the same as those in the first embodiment, and are omitted here.

なお、本実施例においては、R、G及びBのフィルタを介した照明光各々により被検体が照明された際に、前記照明光各々の反射光の像に基づく撮像信号を出力するCCD21は、単板式として構成されているものに限らず、例えば、三板式等の多板式のものとして構成されているものであっても良い。   In the present embodiment, when the subject is illuminated with each of the illumination lights that have passed through the R, G, and B filters, the CCD 21 that outputs an imaging signal based on the image of the reflected light of each of the illumination lights, It is not limited to one configured as a single plate type, and may be configured as a multi-plate type such as a three-plate type.

本実施例によると、実施例1と同様、血管パターンが鮮明に表示される分光画像を得ることができる。また、本実施例では、実施例1と異なり、いわゆる面順次方式によるメリットを享受することができる。なお、このメリットとは、例えば後述するする実施例5のようなものが挙げられる。   According to the present embodiment, as in the first embodiment, a spectral image in which the blood vessel pattern is clearly displayed can be obtained. Further, in this embodiment, unlike the first embodiment, it is possible to enjoy the merits of the so-called frame sequential method. This merit is, for example, the same as in Example 5 described later.

また、上述の実施例では、RGBカラー信号の飽和を避けるために、照明光量(光源部からの光量)を制御・調節している。これに対し、本実施例では、CCD21の電子シャッターを調整する方法を採用している。CCDでは、一定時間内に入射した光強度に比例した電荷が蓄積し、その電荷量を信号としている。この蓄積時間に相当するのが、電子シャッターと呼ばれるものである。この電子シャッターをCCDドライブ回路431にて調節することで、電荷の蓄積量即ち信号量を調整することができる。図30に示すように、電荷蓄積時間を1フレーム毎に順次変化させた状態でのRGBカラー画像を得ることで、同様の分光画像を得ることができる。即ち、上述のそれぞれの実施例において、絞り25による照明光量の制御は通常画像を得るために用い、分光画像を得る際には、電子シャッターを変化させることにより、RGBカラー信号の飽和を避けることが可能である。   In the above-described embodiment, the illumination light amount (light amount from the light source unit) is controlled and adjusted in order to avoid saturation of the RGB color signals. On the other hand, in this embodiment, a method of adjusting the electronic shutter of the CCD 21 is adopted. In the CCD, a charge proportional to the intensity of light incident within a predetermined time is accumulated, and the amount of the charge is used as a signal. The accumulation time corresponds to what is called an electronic shutter. By adjusting the electronic shutter with the CCD drive circuit 431, the amount of accumulated charge, that is, the signal amount can be adjusted. As shown in FIG. 30, a similar spectral image can be obtained by obtaining an RGB color image in a state where the charge accumulation time is sequentially changed for each frame. That is, in each of the embodiments described above, the illumination light amount control by the diaphragm 25 is used for obtaining a normal image, and when obtaining a spectral image, the electronic shutter is changed to avoid saturation of RGB color signals. Is possible.

図31は本発明の実施例5に係るCCDの電荷蓄積時間を示す図である。   FIG. 31 is a diagram showing the charge accumulation time of the CCD according to Example 5 of the present invention.

実施例5は、実施例4とほとんど同じであるので、実施例4と異なる点のみ説明し、同一の構成要素には同一符号をつけ説明は省略する。   Since the fifth embodiment is almost the same as the fourth embodiment, only differences from the fourth embodiment will be described, and the same components are denoted by the same reference numerals and description thereof will be omitted.

本実施例は、主として実施例4と同様、面順次方式を利用したものであり、また、この利点を生かしたものである。実施例4での電子シャッター制御による電荷蓄積時間にR,G,B毎に重み付けを加えることで、分光画像データの生成を簡素化することができるものである。すなわち、本実施例では、CCD21の電荷蓄積時間を1フレーム期間内にR,G,B毎に変化させることができるCCDドライブ431を有していることになる。なお、その他は、実施例4と同様である。   The present embodiment mainly uses the frame sequential method similarly to the fourth embodiment, and takes advantage of this advantage. By adding a weight for each of R, G, and B to the charge accumulation time by the electronic shutter control in the fourth embodiment, the generation of spectral image data can be simplified. That is, in this embodiment, the CCD drive 431 that can change the charge accumulation time of the CCD 21 for each of R, G, and B within one frame period is provided. Others are the same as in the fourth embodiment.

図31の例の動作としては、RGB回転フィルタ23を介してそれぞれの照明光が照射された場合に、CCD21における電子シャッターによる電荷蓄積時間を変化させる。ここで、照明光がR・G・Bのそれぞれの場合におけるCCD21の電荷蓄積時間をtdr、tdg、tdb(なお同図ではBのカラー画像信号は蓄積時間を設けていないためtdbは省略されている)とする。例えば、(21)式にて示されたマトリックス処理を行う場合のF3擬似フィルタ画像は、通常内視鏡にて得られるRGB画像から、
[数25]
F3=−0.050R−1.777G+0.829B …(25)
の演算を行うので、図30でのRGB別の電子シャッター制御による電荷蓄積時間を
[数26]
tdr:tdg:tdb=0.050:1.777:0.829 …(26)
となるように設定すれば良い。また、マトリックス演算部では、単にRとG成分のみ反転させた信号とB成分を加算する。これにより、実施例1乃至実施例4と同様の分光画像を得ることができる。
As an operation of the example of FIG. 31, when each illumination light is irradiated through the RGB rotation filter 23, the charge accumulation time by the electronic shutter in the CCD 21 is changed. Here, tdr, tdg, and tdb are the charge accumulation times of the CCD 21 when the illumination light is R, G, and B (in this figure, since the B color image signal has no accumulation time, tdb is omitted). ). For example, the F3 pseudo filter image in the case of performing the matrix processing represented by the equation (21) is obtained from an RGB image obtained by a normal endoscope,
[Equation 25]
F3 = −0.050R−1.777G + 0.829B (25)
Therefore, the charge accumulation time by RGB electronic shutter control in FIG.
tdr: tdg: tdb = 0.050: 1.777: 0.829 (26)
It should be set so that. Further, the matrix calculation unit simply adds the signal obtained by inverting only the R and G components and the B component. Thereby, the same spectral image as Example 1 thru | or Example 4 can be obtained.

本実施例によると、実施例4と同様、血管パターンが鮮明に表示される分光画像を得ることができる。また、本実施例では、実施例4と同様、カラー信号の作成に面順次方式を利用しており、またさらに電子シャッターを用いてカラー信号毎に電荷蓄積時間を異ならせることができるため、これにより、マトリックス演算部においては、単に加算、差分処理を行うだけでよく、処理を簡略化することが可能である。   According to the present embodiment, a spectral image in which a blood vessel pattern is clearly displayed can be obtained as in the fourth embodiment. Further, in the present embodiment, as in the fourth embodiment, the frame sequential method is used for creating the color signal, and the charge accumulation time can be made different for each color signal using an electronic shutter. Therefore, in the matrix calculation unit, it is only necessary to perform addition and difference processing, and the processing can be simplified.

図32及び図33は本発明の実施例6の生体観察装置に係わり、図32は色フィルタの配列を示す図、図33は図32に色フィルタの分光感度特性を示す図である。   32 and 33 relate to the living body observation apparatus according to the sixth embodiment of the present invention. FIG. 32 is a diagram illustrating an arrangement of color filters, and FIG. 33 is a diagram illustrating spectral sensitivity characteristics of the color filters.

実施例6は、実施例1とほとんど同じであるので、実施例1と異なる点のみ説明し、同一の構成要素には同一符号をつけ説明は省略する。   Since the sixth embodiment is almost the same as the first embodiment, only differences from the first embodiment will be described, and the same components are denoted by the same reference numerals and description thereof will be omitted.

本実施例は、主として実施例1とCCD21に設けられたカラーフィルタが異なるものである。実施例1では、図6で示したようにRGB原色型カラーフィルタが用いられるのに対し、本実施例では、補色型のカラーフィルタを用いる。   In the present embodiment, the color filter provided in the CCD 21 is mainly different from that in the first embodiment. In the first embodiment, an RGB primary color filter is used as shown in FIG. 6, whereas in the present embodiment, a complementary color filter is used.

この補色型フィルタの配列は図32に示されているように、G、Mg、Ye、Cyの各要素から構成される。なお、原色型カラーフィルタの各要素と補色型カラーフィルタの各要素の関係は、Mg=R+B、Cy=G+B、Ye=R+Gとなる。   As shown in FIG. 32, the complementary color filter array is composed of G, Mg, Ye, and Cy elements. The relationship between each element of the primary color filter and each element of the complementary color filter is Mg = R + B, Cy = G + B, Ye = R + G.

この場合、CCD21の全画素読み出しを行い、各色フィルタからの画像を信号処理又は画像処理することになる。また、原色型カラーフィルタについての(1)式〜(8)式及び(19)式〜(21)式について、補色型カラーフィルタの場合に変形すると、以下の(27)式より(33)式のようになる。但し、目標とする狭帯域のバンドパスフィルタの特性は同じとする。   In this case, all the pixels of the CCD 21 are read out, and the image from each color filter is subjected to signal processing or image processing. Further, when the equations (1) to (8) and (19) to (21) for the primary color filter are modified in the case of a complementary color filter, the following equation (33) is obtained from the following equation (27): become that way. However, the characteristics of the target narrow-band bandpass filter are the same.

[数27]

Figure 2006341075
[数28]
Figure 2006341075
[数29]
kG=(∫S(λ)×H(λ)×G(λ)dλ)-1
kMg=(∫S(λ)×H(λ)×Mg(λ)dλ)-1
kCy=(∫S(λ)×H(λ)×Cy(λ)dλ)-1
kYe=(∫S(λ)×H(λ)×Ye(λ)dλ)-1 …(29)
[数30]
Figure 2006341075
[数31]
Figure 2006341075
[数32]
Figure 2006341075
[数33]
Figure 2006341075
また、図33に、補色型カラーフィルタを用いた場合の分光感度特性、目標とするバンドパスフィルタ及び上記(27)式乃至(33)式により求められ擬似バンドパスフィルタの特性を示す。 [Equation 27]
Figure 2006341075
[Equation 28]
Figure 2006341075
[Equation 29]
kG = (∫S (λ) × H (λ) × G (λ) dλ) −1
kmg = (∫S (λ) × H (λ) × Mg (λ) dλ) −1
kCy = (∫S (λ) × H (λ) × Cy (λ) dλ) −1
kYe = (∫S (λ) × H (λ) × Ye (λ) dλ) −1 (29)
[Equation 30]
Figure 2006341075
[Equation 31]
Figure 2006341075
[Formula 32]
Figure 2006341075
[Equation 33]
Figure 2006341075
FIG. 33 shows the spectral sensitivity characteristics when the complementary color filter is used, the target band-pass filter, and the characteristics of the pseudo band-pass filter obtained from the equations (27) to (33).

なお、補色型フィルタを用いる場合には、図4で示されるS/H回路は、それぞれR・G・Bではなく、G・Mg・Cy・Yeについて行われることは言うまでもない。   When the complementary color filter is used, it goes without saying that the S / H circuit shown in FIG. 4 is performed for G, Mg, Cy, and Ye instead of R, G, and B, respectively.

また、補色型カラーフィルタを使った場合でも式(9)〜(18)で示したマトリックス推定方法が適用できる。この場合、補色フィルタの数が4つである場合には、式(14)で仮定した生体分光反射率が3つの基本的な分光特性で近似できる、という部分が4つ、ないしは4つ以下となる。従って、これに合わせて、推定マトリックスを演算するための次元は3から4に変更される。   Further, even when a complementary color filter is used, the matrix estimation method shown in the equations (9) to (18) can be applied. In this case, when the number of the complementary color filters is four, the biological spectral reflectance assumed in the equation (14) can be approximated by three basic spectral characteristics, or four or less. Become. Accordingly, in accordance with this, the dimension for calculating the estimation matrix is changed from 3 to 4.

本実施例によると、実施例1と同様、血管パターンが鮮明に表示される分光画像を得ることができる。また、本実施例では、補色型カラーフィルタを用いた場合のメリットを享受することができる。   According to the present embodiment, as in the first embodiment, a spectral image in which the blood vessel pattern is clearly displayed can be obtained. Further, in this embodiment, it is possible to enjoy the advantages of using a complementary color filter.

以上説明した各実施例によれば、信号処理により得られた分光画像に基づく生体組織の所望の深部の組織情報を観察に適した色調の画像情報に調整することができるという効果がある。   According to each embodiment described above, there is an effect that tissue information of a desired deep part of a living tissue based on a spectral image obtained by signal processing can be adjusted to image information of a color tone suitable for observation.

以上、本発明における各実施例について説明を行ったが、本発明は、上記実施例を種々組みあせて用いても良く、また趣旨を一脱しない範囲での変形も考えられる。   The embodiments of the present invention have been described above. However, the present invention may be used by combining various embodiments described above, and modifications may be made without departing from the spirit of the present invention.

例えば、既に述べた全ての実施例に対して、臨床中その他のタイミングにて操作者自ら新規の擬似バンドパスフィルタを作成し、臨床に適用することもできる。即ち、実施例1で示すと図4中の制御部42に、マトリックス係数を演算・算出することのできる設計部(図示しない)を設けるようにしてもよい。   For example, for all the embodiments described above, a new pseudo band-pass filter can be created by the operator himself / herself at other timings in the clinic and applied to the clinic. That is, as shown in the first embodiment, a design unit (not shown) that can calculate and calculate matrix coefficients may be provided in the control unit 42 in FIG.

これにより、図3に示す内視鏡本体に設けられたキーボードを介して条件を入力することで、操作者が知りたい分光画像を得るのに適した擬似バンドパスフィルタを新規に設計するとともに、算出されたマトリックス係数((19)式及び(31)式のマトリックス「A」の各要素に相当)に補正係数((20)式及び(32)式のマトリックス「K」の各要素に相当)を施した最終マトリックス係数((21)式及び(33)式のマトリックス「A’」の各要素に相当)を図4中のマトリックス演算部436に設定することで、即時臨床に適用することができる。   Thereby, by inputting conditions via the keyboard provided in the endoscope main body shown in FIG. 3, a pseudo bandpass filter suitable for obtaining a spectral image that the operator wants to know is newly designed, Correction coefficient (corresponding to each element of the matrix “K” in the expressions (20) and (32)) to the calculated matrix coefficient (corresponding to each element of the matrix “A” in the expressions (19) and (31)) By setting the final matrix coefficient (corresponding to each element of the matrix “A ′” in the equations (21) and (33)) in the matrix calculation unit 436 in FIG. it can.

図34に、適用までの流れを示す。この流れについて詳しく説明すると、まず、操作者は、目標となるバンドパスフィルタの情報(例えば波長帯域等)をキーボード等を介して入力する。これにより、すでに所定の記憶装置等に記憶されている光源・カラーフィルタの特性等と共に、マトリックス「A’」が算出され、図32に示されるように、目標とするバンドパスフィルタの特性と共に、そのマトリックス「A’」による演算結果(擬似バンドパスフィルタ)が、スペクトル図としてモニタ上に表示される。   FIG. 34 shows a flow until application. This flow will be described in detail. First, the operator inputs information about a target bandpass filter (for example, a wavelength band) via a keyboard or the like. As a result, the matrix “A ′” is calculated along with the characteristics of the light source / color filter already stored in a predetermined storage device or the like, and as shown in FIG. 32, along with the characteristics of the target bandpass filter, The calculation result (pseudo bandpass filter) by the matrix “A ′” is displayed on the monitor as a spectrum diagram.

操作者はこの演算結果を確認した後、新たに作成されたマトリックス「A’」を使用する場合には、その設定を行い、このマトリックス「A’」を用いて実際の内視鏡画像が生成される。また、これと共に新たに作成されたマトリックス「A’」は、所定の記憶装置に記憶され、操作者の所定の操作に応じて、再度使用することができる。   After confirming the calculation result, the operator performs setting when using the newly created matrix “A ′”, and generates an actual endoscopic image using this matrix “A ′”. Is done. In addition, the newly created matrix “A ′” is stored in a predetermined storage device and can be used again according to a predetermined operation by the operator.

これにより、操作者は既存のマトリックス「A’」にとらわれず、自らの経験等により新たなバンドパスフィルタを生成することができ、特に研究用として使用される場合に、効果が高いものである。   As a result, the operator can generate a new band-pass filter based on his / her own experience etc. without being bound by the existing matrix “A ′”, and is particularly effective when used for research purposes. .

以上のように、本発明の各実施例によれば、より精度或いは信頼性の高い分光信号を得ることができる。   As described above, according to each embodiment of the present invention, a more accurate or reliable spectral signal can be obtained.

本発明は、上述した各実施例に限定されるものではなく、本発明の要旨を変えない範囲において、種々の変更、改変等が可能である。   The present invention is not limited to the above-described embodiments, and various changes and modifications can be made without departing from the scope of the present invention.

本発明の実施例1に係るカラー画像信号から分光画像信号を作成する際の信号の流れを示した概念図FIG. 3 is a conceptual diagram showing a signal flow when creating a spectral image signal from a color image signal according to Embodiment 1 of the present invention. 本発明の実施例1に係る分光画像信号の積分演算を示す概念図FIG. 3 is a conceptual diagram showing integration calculation of spectral image signals according to Embodiment 1 of the present invention. 本発明の実施例1に係る電子内視鏡装置の外観を示す外観図1 is an external view showing an external appearance of an electronic endoscope apparatus according to Embodiment 1 of the present invention. 図3の電子内視鏡装置の構成を示すブロック図The block diagram which shows the structure of the electronic endoscope apparatus of FIG. 図4のチョッパーの外観を示す外観図External view showing the external appearance of the chopper of FIG. 図3のCCDの撮像面に配置される色フィルタの配列を示す図The figure which shows the arrangement | sequence of the color filter arrange | positioned at the imaging surface of CCD of FIG. 図6の色フィルタの分光感度特性を示す図The figure which shows the spectral sensitivity characteristic of the color filter of FIG. 図4のマトリックス演算部の構成を示す構成図The block diagram which shows the structure of the matrix calculating part of FIG. 本発明の実施例1に係る光源のスペクトルを示すスペクトル図The spectrum figure which shows the spectrum of the light source which concerns on Example 1 of this invention 本発明の実施例1に係る生体の反射スペクトルを示すスペクトル図、The spectrum figure which shows the reflection spectrum of the living body concerning Example 1 of the present invention, 図11は図4の電子内視鏡装置により観察する生体組織の層方向構造を示す図FIG. 11 is a diagram showing a layer direction structure of a biological tissue observed by the electronic endoscope apparatus of FIG. 図4の電子内視鏡装置からの照明光の生体組織の層方向への到達状態を説明する図The figure explaining the arrival state to the layer direction of the biological tissue of the illumination light from the electronic endoscope apparatus of FIG. 白色光の各バンドの分光特性を示す図Diagram showing spectral characteristics of each band of white light 図13の白色光による各バンド画像を示す第1の図The 1st figure which shows each band image by the white light of FIG. 図13の白色光による各バンド画像を示す第2の図2nd figure which shows each band image by the white light of FIG. 図13の白色光による各バンド画像を示す第3の図3rd figure which shows each band image by the white light of FIG. 図8のマトリックス演算部で生成された分光画像の分光特性を示す図The figure which shows the spectral characteristic of the spectral image produced | generated by the matrix calculating part of FIG. 図17の各分光画像を示す第1の図The 1st figure which shows each spectral image of FIG. 図17の各分光画像を示す第2の図The 2nd figure which shows each spectral image of FIG. 図17の各分光画像を示す第3の図The 3rd figure which shows each spectral image of FIG. 図21は図4の色調整部の構成を示すブロック図FIG. 21 is a block diagram showing the configuration of the color adjustment unit in FIG. 図21の色調整部の作用を説明する図The figure explaining the effect | action of the color adjustment part of FIG. 図4の色調整部の変形例の成を示すブロック図FIG. 4 is a block diagram showing a modification of the color adjustment unit in FIG. 図17の分光画像の第1の変形例の分光特性を示す図The figure which shows the spectral characteristic of the 1st modification of the spectral image of FIG. 図17の分光画像の第2の変形例の分光特性を示す図The figure which shows the spectral characteristic of the 2nd modification of the spectral image of FIG. 図17の分光画像の第3の変形例の分光特性を示す図The figure which shows the spectral characteristics of the 3rd modification of the spectral image of FIG. 本発明の実施例2に係る電子内視鏡装置の構成を示すブロック図FIG. 3 is a block diagram showing a configuration of an electronic endoscope apparatus according to Embodiment 2 of the present invention. 本発明の実施例3に係るマトリックス演算部の構成を示すブロック図FIG. 9 is a block diagram showing the configuration of a matrix calculation unit according to the third embodiment of the present invention. 本発明の実施例4に係る図29は電子内視鏡装置の構成を示すブロック図FIG. 29 according to the fourth embodiment of the present invention is a block diagram showing a configuration of an electronic endoscope apparatus. 図29のCCDの電荷蓄積時間を示す図The figure which shows the charge accumulation time of CCD of FIG. 本発明の実施例5に係るCCDの電荷蓄積時間を示す図The figure which shows the charge accumulation time of CCD which concerns on Example 5 of this invention. 本発明の実施例6に係る色フィルタの配列を示す図The figure which shows the arrangement | sequence of the color filter which concerns on Example 6 of this invention. 図32に色フィルタの分光感度特性を示す図FIG. 32 shows the spectral sensitivity characteristics of the color filter. 本発明に係る変形例におけるマトリックス演算の際のフローチャートFlowchart at the time of matrix calculation in a modification according to the present invention 硬性鏡の外観を示す図Diagram showing appearance of rigid endoscope 口腔カメラの外観を示す図Diagram showing appearance of oral camera 生体表面に接触させて用いられるカメラの外観を示す図The figure which shows the external appearance of the camera used in contact with the surface of a living body

符号の説明Explanation of symbols

41…光源部
42…制御部
43…本体処理装置
100…電子内視鏡装置
101…スコープ
102…挿入部
103…先端部
104…アングル操作部
105…内視鏡装置本体
106…表示モニタ
436…マトリックス演算部
440…色調整部
440a…色変換処理回路
DESCRIPTION OF SYMBOLS 41 ... Light source part 42 ... Control part 43 ... Main body processing apparatus 100 ... Electronic endoscope apparatus 101 ... Scope 102 ... Insertion part 103 ... Tip part 104 ... Angle operation part 105 ... Endoscope apparatus main body 106 ... Display monitor 436 ... Matrix Arithmetic unit 440 ... color adjustment unit 440a ... color conversion processing circuit

Claims (10)

被検体である生体に光を照射する照明部、及び/又は該照明部からの照明光に基づいて前記生体から反射される光を光電変換し、撮像信号を生成する撮像部の動作を制御し、表示装置へ前記撮像信号を出力する信号処理制御部を具備した生体観測装置用の信号処理装置であって、
前記撮像信号から光学的波長狭帯域の画像に対応する分光信号を信号処理によって生成する分光信号生成部と、
前記分光信号を前記表示装置へ出力する際に当該分光信号を形成する複数の帯域ごとに色調を調整する色調整部と、
を有し、
前記撮像信号は、色分解部を経て生成されることを特徴とする生体観測装置用信号処理装置。
Controlling the operation of the imaging unit that generates an imaging signal by photoelectrically converting light reflected from the illumination unit that irradiates light to the living body that is the subject and / or illumination light from the illumination unit A signal processing device for a biological observation device comprising a signal processing control unit for outputting the imaging signal to a display device,
A spectral signal generation unit that generates a spectral signal corresponding to an optical wavelength narrowband image from the imaging signal by signal processing;
A color adjusting unit that adjusts a color tone for each of a plurality of bands forming the spectral signal when the spectral signal is output to the display device;
Have
The signal processing apparatus for a biological observation apparatus, wherein the imaging signal is generated through a color separation unit.
前記撮像部は、内視鏡に含まれることを特徴とする請求項1に記載の生体観測装置用信号処理装置。   The biological imaging apparatus signal processing apparatus according to claim 1, wherein the imaging unit is included in an endoscope. 前記内視鏡は、軟性鏡であることを特徴とする請求項2に記載の生体観測装置用信号処理装置。   The signal processing apparatus for a biological observation apparatus according to claim 2, wherein the endoscope is a flexible mirror. 前記内視鏡は、硬性鏡であることを特徴とする請求項2に記載の生体観測装置用信号処理装置。   The biological observation apparatus signal processing apparatus according to claim 2, wherein the endoscope is a rigid endoscope. 前記撮像部は、口腔カメラに含まれることを特徴とする請求項1に記載の生体観測装置用信号処理装置。   The biological imaging apparatus signal processing apparatus according to claim 1, wherein the imaging unit is included in an oral camera. 前記撮像部は、生体表面に接触させた状態において、当該生体を撮像するカメラに含まれることを特徴とする請求項1に記載の生体観測装置用信号処理装置。   The signal processing apparatus for a biological observation apparatus according to claim 1, wherein the imaging unit is included in a camera that images the living body in a state where the imaging unit is in contact with the surface of the living body. 前記色分解部は、前記撮像部に設けられた色フィルタであることを特徴とする請求項1に記載の生体観測装置用信号処理装置。   The signal processing apparatus for a biological observation apparatus according to claim 1, wherein the color separation unit is a color filter provided in the imaging unit. 前記色分解部は、前記照明部に設けられた色フィルタであることを特徴とする請求項1に記載の生体観測装置用信号処理装置。   The biological color observation apparatus signal processing device according to claim 1, wherein the color separation unit is a color filter provided in the illumination unit. 前記色分解部の原色は、RGB原色系であることを特徴とする請求項1に記載の生体観測装置用信号処理装置。   The signal processing apparatus for a biological observation apparatus according to claim 1, wherein the primary color of the color separation unit is an RGB primary color system. 前記色分解部の原色は、CMY補色系を含むことを特徴とする請求項1に記載の生体観測装置用信号処理装置。
The signal processing apparatus for a biological observation apparatus according to claim 1, wherein the primary color of the color separation unit includes a CMY complementary color system.
JP2006077759A 2005-05-11 2006-03-20 Signal processor for biological observation system Pending JP2006341075A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006077759A JP2006341075A (en) 2005-05-11 2006-03-20 Signal processor for biological observation system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005138930 2005-05-11
JP2006077759A JP2006341075A (en) 2005-05-11 2006-03-20 Signal processor for biological observation system

Publications (1)

Publication Number Publication Date
JP2006341075A true JP2006341075A (en) 2006-12-21

Family

ID=37638467

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006077759A Pending JP2006341075A (en) 2005-05-11 2006-03-20 Signal processor for biological observation system

Country Status (1)

Country Link
JP (1) JP2006341075A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010213745A (en) * 2009-03-13 2010-09-30 Fujifilm Corp Endoscopic image processing device and method and program
JP2012152414A (en) * 2011-01-27 2012-08-16 Fujifilm Corp Electronic endoscope system
JP2012152459A (en) * 2011-01-27 2012-08-16 Fujifilm Corp Endoscope system, processing unit therefor, and image processing method
JP2012152413A (en) * 2011-01-27 2012-08-16 Fujifilm Corp Electronic endoscope system
CN103124515A (en) * 2010-09-30 2013-05-29 奥林巴斯医疗株式会社 Imaging device
WO2017104046A1 (en) * 2015-12-17 2017-06-22 オリンパス株式会社 Endoscope device

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010213745A (en) * 2009-03-13 2010-09-30 Fujifilm Corp Endoscopic image processing device and method and program
CN103124515A (en) * 2010-09-30 2013-05-29 奥林巴斯医疗株式会社 Imaging device
JP2012152414A (en) * 2011-01-27 2012-08-16 Fujifilm Corp Electronic endoscope system
JP2012152459A (en) * 2011-01-27 2012-08-16 Fujifilm Corp Endoscope system, processing unit therefor, and image processing method
JP2012152413A (en) * 2011-01-27 2012-08-16 Fujifilm Corp Electronic endoscope system
US9107603B2 (en) 2011-01-27 2015-08-18 Fujifilm Corporation Electronic endoscope system including a suppression section
WO2017104046A1 (en) * 2015-12-17 2017-06-22 オリンパス株式会社 Endoscope device
US10881283B2 (en) 2015-12-17 2021-01-05 Olympus Corporation Endoscope apparatus

Similar Documents

Publication Publication Date Title
JP4504324B2 (en) Biological observation device
KR100953773B1 (en) Signal processing device for biological observation apparatus
KR100988113B1 (en) Biometric instrument
JP4409523B2 (en) Biological observation device
KR100953788B1 (en) Biometric instrument
JP2006314557A (en) Biological observation apparatus
JP5637834B2 (en) Endoscope device
CN101175435B (en) Biological observation apparatus
JP2003093336A (en) Electronic endoscope apparatus
WO2007108270A1 (en) Living body observing device
JP2006341075A (en) Signal processor for biological observation system
RU2378976C2 (en) Method of signal processing for device intended for biological observation
JP2006341076A (en) Signal processor for biological observation system
JP2006325974A (en) Biometric instrument
JP2012035090A (en) Electronic endoscope apparatus
JP7163243B2 (en) Processor device, endoscope system, and method of operating processor device
JP6659817B2 (en) Medical image processing equipment
JP5714669B2 (en) Electronic endoscope device
JPH03242133A (en) Endoscope device
JP2013226467A (en) Electronic endoscope apparatus

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090602

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20091013