JP2017202241A - Endoscope system, processor device, and signal processing method - Google Patents
Endoscope system, processor device, and signal processing method Download PDFInfo
- Publication number
- JP2017202241A JP2017202241A JP2016097269A JP2016097269A JP2017202241A JP 2017202241 A JP2017202241 A JP 2017202241A JP 2016097269 A JP2016097269 A JP 2016097269A JP 2016097269 A JP2016097269 A JP 2016097269A JP 2017202241 A JP2017202241 A JP 2017202241A
- Authority
- JP
- Japan
- Prior art keywords
- signal
- pixel
- image
- light
- luminance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 14
- 238000005286 illumination Methods 0.000 claims abstract description 162
- 238000012937 correction Methods 0.000 claims abstract description 81
- 238000012545 processing Methods 0.000 claims description 138
- 210000004204 blood vessel Anatomy 0.000 claims description 130
- 230000035945 sensitivity Effects 0.000 claims description 65
- 238000003384 imaging method Methods 0.000 claims description 64
- 230000003595 spectral effect Effects 0.000 claims description 53
- 238000000034 method Methods 0.000 claims description 45
- 230000008569 process Effects 0.000 claims description 32
- 238000003860 storage Methods 0.000 claims description 24
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 claims description 23
- 238000004364 calculation method Methods 0.000 claims description 15
- 239000003086 colorant Substances 0.000 claims description 12
- 230000000875 corresponding effect Effects 0.000 description 19
- 238000006243 chemical reaction Methods 0.000 description 17
- 230000003287 optical effect Effects 0.000 description 15
- 238000010586 diagram Methods 0.000 description 14
- 210000004400 mucous membrane Anatomy 0.000 description 11
- 230000006870 function Effects 0.000 description 10
- 239000010410 layer Substances 0.000 description 10
- 230000009467 reduction Effects 0.000 description 9
- 239000002344 surface layer Substances 0.000 description 9
- 238000010521 absorption reaction Methods 0.000 description 8
- 230000001678 irradiating effect Effects 0.000 description 7
- 239000004065 semiconductor Substances 0.000 description 7
- 102000001554 Hemoglobins Human genes 0.000 description 6
- 108010054147 Hemoglobins Proteins 0.000 description 6
- 210000001519 tissue Anatomy 0.000 description 6
- 238000005452 bending Methods 0.000 description 5
- 230000008859 change Effects 0.000 description 5
- 230000000295 complement effect Effects 0.000 description 5
- 238000003780 insertion Methods 0.000 description 5
- 230000037431 insertion Effects 0.000 description 5
- 230000035515 penetration Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 230000007547 defect Effects 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 210000004877 mucosa Anatomy 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 230000002596 correlated effect Effects 0.000 description 2
- 238000003745 diagnosis Methods 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- OAICVXFJPJFONN-UHFFFAOYSA-N Phosphorus Chemical compound [P] OAICVXFJPJFONN-UHFFFAOYSA-N 0.000 description 1
- 238000000149 argon plasma sintering Methods 0.000 description 1
- QVGXLLKOCUKJST-UHFFFAOYSA-N atomic oxygen Chemical compound [O] QVGXLLKOCUKJST-UHFFFAOYSA-N 0.000 description 1
- 230000008033 biological extinction Effects 0.000 description 1
- 238000004040 coloring Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 229910052736 halogen Inorganic materials 0.000 description 1
- 150000002367 halogens Chemical class 0.000 description 1
- 239000004615 ingredient Substances 0.000 description 1
- 230000031700 light absorption Effects 0.000 description 1
- 238000011551 log transformation method Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 229910052760 oxygen Inorganic materials 0.000 description 1
- 239000001301 oxygen Substances 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 238000011946 reduction process Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 210000004876 tela submucosa Anatomy 0.000 description 1
- 238000002834 transmittance Methods 0.000 description 1
- 230000002792 vascular Effects 0.000 description 1
- 229910052724 xenon Inorganic materials 0.000 description 1
- FHNFHKCVQCLJFQ-UHFFFAOYSA-N xenon atom Chemical compound [Xe] FHNFHKCVQCLJFQ-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00004—Operational features of endoscopes characterised by electronic signal processing
- A61B1/00009—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
- A61B1/000094—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
Landscapes
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Surgery (AREA)
- Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Optics & Photonics (AREA)
- Pathology (AREA)
- Radiology & Medical Imaging (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Endoscopes (AREA)
Abstract
Description
本発明は内視鏡システム、内視鏡システムのプロセッサ装置、及び内視鏡システムにおける信号処理方法に関し、特に被検体の構造を強調した画像を生成するための信号を処理する内視鏡システム、プロセッサ装置、及び信号処理方法に関する。 The present invention relates to an endoscope system, a processor device of the endoscope system, and a signal processing method in the endoscope system, and in particular, an endoscope system that processes a signal for generating an image in which a structure of a subject is emphasized, The present invention relates to a processor device and a signal processing method.
内視鏡システムを用いた検査又は診断において、血管に関する情報の重要性が認識されており、近年では様々な方法で血管の情報を抽出する内視鏡システムが提案されている(例えば、下記特許文献1及び特許文献2を参照)。特許文献1には青色の狭帯域光を用いて得られた画像と緑色の狭帯域光を用いて得られた画像の各々に重み付けの処理を行うことにより、生体組織の粘膜表層に存在する血管と生体組織の深層に存在する血管とを抽出する内視鏡システムが開示されている。 In examinations or diagnoses using an endoscope system, the importance of information on blood vessels has been recognized, and in recent years, endoscope systems that extract blood vessel information by various methods have been proposed (for example, the following patents). Reference 1 and Patent Reference 2). Patent Document 1 discloses that blood vessels present on the mucous membrane surface layer of a living tissue by weighting each of an image obtained using blue narrow-band light and an image obtained using green narrow-band light. And an endoscope system for extracting blood vessels existing in a deep layer of a living tissue.
また特許文献2には、互いに波長領域が異なる複数の狭帯域光を被写体組織に照射し、各狭帯域光の照射ごとに撮像素子を介して取得される狭帯域画像データ間の輝度比に基づいて、血管深さと酸素飽和濃度を算出する内視鏡システムが開示されている。 Further, in Patent Document 2, a subject tissue is irradiated with a plurality of narrowband lights having different wavelength regions, and based on a luminance ratio between narrowband image data acquired via an imaging device for each irradiation of each narrowband light. An endoscope system for calculating blood vessel depth and oxygen saturation concentration is disclosed.
特許文献1及び特許文献2に示されているように、波長帯域が異なる複数種類の照明光を利用してマルチフレーム撮影により取得した複数の波長帯域ごとの画像から、異なる深さに存在する血管の情報を抽出することができる。そして、これら複数の波長帯域毎の画像を画像の差分情報を利用して合成することで、特定深さの血管が観察しやすい画像を得ることができる。 As shown in Patent Literature 1 and Patent Literature 2, blood vessels existing at different depths from images for each of a plurality of wavelength bands acquired by multiframe imaging using a plurality of types of illumination light having different wavelength bands. Can be extracted. Then, by combining the images for each of the plurality of wavelength bands using the difference information of the images, it is possible to obtain an image in which a blood vessel having a specific depth can be easily observed.
このような画像の合成を行う際に、各画像の明るさ(輝度)を調整することで合成画像において特定深さの血管を観察しやすくすることが考えられる。しかしながら、マルチフレーム撮影の場合フレーム毎の撮影タイミングが異なるため、撮影距離や角度がフレームによって変化し、画像の明るさの違いが一律ではなく場所により異なっている。このような状況に対し、上述した特許文献1及び特許文献2に示されるような従来の技術では各画像の明るさを合わせることが困難であり、その結果被検体の構造を十分に観察することは困難であった。 When synthesizing such images, it is conceivable to adjust the brightness (luminance) of each image to make it easier to observe a blood vessel having a specific depth in the synthesized image. However, in the case of multi-frame shooting, since the shooting timing for each frame is different, the shooting distance and angle vary from frame to frame, and the difference in image brightness differs from place to place. In such a situation, it is difficult to match the brightness of each image with the conventional techniques as described in Patent Document 1 and Patent Document 2 described above, and as a result, the structure of the subject is sufficiently observed. Was difficult.
本発明はこのような事情に鑑みてなされたもので、被検体の構造を観察するための画像生成に必要な信号を容易に取得できる内視鏡システム及び信号処理方法を提供することを目的とする。また本発明は、内視鏡システムで取得した信号により被検体の構造を観察するための画像を容易に生成できるプロセッサ装置を提供することを目的とする。 The present invention has been made in view of such circumstances, and an object thereof is to provide an endoscope system and a signal processing method capable of easily acquiring signals necessary for image generation for observing the structure of a subject. To do. It is another object of the present invention to provide a processor device that can easily generate an image for observing the structure of a subject using a signal acquired by an endoscope system.
上述した目的を達成するため、本発明の第1の態様に係る内視鏡システムは、対物レンズと、三原色の各色に対応するカラーフィルタが配列された第1の画素、第2の画素及び第3の画素を有する撮像素子とを含む撮像部と、それぞれ波長の異なる第1の波長、第2の波長及び第3の波長をピークとする第1の照明光、第2の照明光及び第3の照明光を発光する光源と、撮像部による被検体の撮像時に、光源から第1の照明光と第3の照明光とを同時に発光させる第1の発光制御と、第2の照明光と第3の照明光とを同時に発光させる第2の発光制御とを行う光源制御部と、光源制御部による第1の発光制御が行われるときに、撮像素子の第1の画素、第2の画素及び第3の画素のうちの、第1の波長に最も分光感度の高い画素から第1の輝度信号を取得し、かつ撮像素子の第1の画素、第2の画素及び第3の画素のうちの第3の波長に感度を有する画素であって、少なくとも第1の波長に最も分光感度の高い画素とは異なる画素から第1の参照信号を取得し、光源制御部による第2の発光制御が行われるときに、撮像素子の第1の画素、第2の画素及び第3の画素のうちの、第2の波長に最も分光感度の高い画素から第2の輝度信号を取得し、かつ撮像素子の第1の画素、第2の画素及び第3の画素のうちの第3の波長に感度を有する画素であって、少なくとも第2の波長に最も分光感度の高い画素とは異なる画素から第2の参照信号を取得する画像信号取得部と、を備える。 In order to achieve the above-described object, an endoscope system according to a first aspect of the present invention includes a first pixel, a second pixel, and a second pixel in which an objective lens and color filters corresponding to the three primary colors are arranged. An image pickup unit including an image pickup device having three pixels, and a first illumination light, a second illumination light, and a third light having a first wavelength, a second wavelength, and a third wavelength having different wavelengths, respectively. A first light emission control for causing the light source to emit the first illumination light and the third illumination light simultaneously, and the second illumination light and the second illumination light. A light source control unit that performs second light emission control for simultaneously emitting three illumination lights, and when the first light emission control by the light source control unit is performed, the first pixel, the second pixel, and Among the third pixels, the pixel having the highest spectral sensitivity at the first wavelength is used for the first brightness. A pixel that obtains a signal and has sensitivity to the third wavelength among the first pixel, the second pixel, and the third pixel of the image sensor, and has the highest spectral sensitivity at least to the first wavelength The first reference signal is acquired from a pixel different from the pixel, and when the second light emission control is performed by the light source control unit, the first pixel, the second pixel, and the third pixel of the image sensor The second luminance signal is acquired from the pixel having the highest spectral sensitivity at the second wavelength, and the sensitivity is applied to the third wavelength among the first pixel, the second pixel, and the third pixel of the image sensor. An image signal acquisition unit that acquires a second reference signal from a pixel that is different from the pixel having the highest spectral sensitivity at the second wavelength.
第1の態様によれば、第1,第2の発光制御において、画像取得のための第1,第2の照明光により第1,第2の輝度信号を取得するのに加えて、参照光として第3の照明光を発光させて第1,第2の参照信号を取得する。これら第1,第2の参照信号は、第1,第2の輝度信号を用いた被検体の構造観察のための画像生成において第1,第2の輝度信号の補正に用いることができる。このように、第1の態様に係る内視鏡システムによれば、被検体の構造を観察するための画像生成に必要な信号を容易に取得することができる。 According to the first aspect, in the first and second light emission control, in addition to acquiring the first and second luminance signals by the first and second illumination lights for image acquisition, the reference light As a result, the third illumination light is emitted to obtain the first and second reference signals. These first and second reference signals can be used to correct the first and second luminance signals in image generation for observing the structure of the subject using the first and second luminance signals. As described above, according to the endoscope system according to the first aspect, it is possible to easily acquire a signal necessary for image generation for observing the structure of the subject.
第1の態様において、「第3の波長に感度を有する画素」は第1の画素、第2の画素及び第3の画素のうちの複数の画素であってもよい。なお、第1の画素、第2の画素及び第3の画素のうちのいずれかの画素における第3の波長に対する感度がゼロでない場合であっても、その感度が参照信号の第1の画素、第2の画素及び第3の画素のうちの他の画素における第3の波長に対する感度に対して十分低いときは、そのような画素は「第3の波長に感度を有する画素」ではないと見なすことができる。 In the first aspect, the “pixel having sensitivity to the third wavelength” may be a plurality of pixels among the first pixel, the second pixel, and the third pixel. Even if the sensitivity to the third wavelength in any one of the first pixel, the second pixel, and the third pixel is not zero, the sensitivity is the first pixel of the reference signal, A pixel is considered not a “pixel sensitive to the third wavelength” when it is sufficiently low in sensitivity to the third wavelength in the other pixels of the second pixel and the third pixel. be able to.
また、第1の態様において第1,第2の発光制御は1回だけでなく2回以上行ってもよく、2回以上(第1,第2の発光制御の合計回数として3回以上)行う場合に、それぞれの発光制御における照明光(第1の照明光,第2の照明光)の波長を変えてもよい。例えば、第1の発光制御を2度行い、1回目の発光制御の際の第1の照明光の波長と2回目の発光制御の際の第1の照明光の波長を変えることができる。このような発光制御を行うことで、第2の発光制御と合わせて3種類の輝度信号を取得することができ、これにより観察目的に応じて異なる画像を生成することができる。 In the first embodiment, the first and second light emission controls may be performed not only once but also two times or more (3 times or more as the total number of the first and second light emission controls). In this case, the wavelength of illumination light (first illumination light, second illumination light) in each light emission control may be changed. For example, the first light emission control can be performed twice to change the wavelength of the first illumination light in the first light emission control and the wavelength of the first illumination light in the second light emission control. By performing such light emission control, it is possible to acquire three types of luminance signals together with the second light emission control, thereby generating different images depending on the observation purpose.
第2の態様に係る内視鏡システムは第1の態様において、第1の参照信号及び第2の参照信号に基づいて第1の輝度信号及び第2の輝度信号のうちの少なくとも一方の輝度信号を画素毎又は撮像領域毎に補正する輝度補正部と、輝度補正部による補正後の第1の輝度信号及び第2の画像信号に基づいて被検体の構造を強調した画像信号を生成する画像信号生成部と、をさらに備える。第2の態様によれば、第1,第2の参照信号に基づいて第1,第2の輝度信号のうち少なくとも一方を画素毎又は撮像領域毎に補正し、補正後の輝度信号に基づいて被検体の構造を強調した画像信号を生成するので、局所的な輝度ムラ(明るさの違い)が除去された画像を生成でき、被検体の構造を容易に観察することができる。 In an endoscope system according to a second aspect, in the first aspect, at least one of the first luminance signal and the second luminance signal based on the first reference signal and the second reference signal. A luminance correction unit that corrects the image for each pixel or each imaging region, and an image signal that generates an image signal that emphasizes the structure of the subject based on the first luminance signal and the second image signal that have been corrected by the luminance correction unit And a generation unit. According to the second aspect, at least one of the first and second luminance signals is corrected for each pixel or each imaging region based on the first and second reference signals, and based on the corrected luminance signal Since the image signal in which the structure of the subject is emphasized is generated, an image from which local luminance unevenness (difference in brightness) is removed can be generated, and the structure of the subject can be easily observed.
第3の態様に係る内視鏡システムは第2の態様において、第3の照明光の発光光量は、第1の照明光及び第2の照明光の発光光量よりも少ない。第3の態様は、第3の照明光は輝度信号の補正において参照光として使用するため、第1の照明光及び第2の照明光よりも発光光量を少なくすることを規定するものである。なお第3の態様において、第3の照明光の発光光量は第1の照明光及び第2の照明光の発光光量の40%以下であることが好ましい。また、第3の照明光の発光光量を第1の照明光及び第2の照明光の発光光量の10%以上20%以下にすることがさらに好ましい。 In the endoscope system according to the third aspect, in the second aspect, the light emission amount of the third illumination light is smaller than the light emission amounts of the first illumination light and the second illumination light. In the third aspect, since the third illumination light is used as the reference light in the correction of the luminance signal, it is defined that the amount of emitted light is smaller than that of the first illumination light and the second illumination light. In the third aspect, the light emission amount of the third illumination light is preferably 40% or less of the light emission amount of the first illumination light and the second illumination light. More preferably, the amount of emitted light of the third illumination light is 10% or more and 20% or less of the amount of emitted light of the first illumination light and the second illumination light.
第4の態様に係る内視鏡システムは第2又は第3の態様において、第1の参照信号及び第2の参照信号は、それぞれ第1の画素、第2の画素及び第3の画素のうちの第1の画像信号及び第2の画像信号を取得した画素とは異なる画素である参照信号取得画素の各色の画像信号を加算した画像信号である。第4の態様では、参照信号取得画素のいずれもが参照光としての第3の照明光に対し感度(副感度)を持つ場合を考慮して、参照信号取得画素の各色の画像信号を加算した画像信号を第1の参照信号及び第2の参照信号としたものである。上述のように第1,第2の波長に最も分光感度が高い画素から第1,第2の輝度信号をそれぞれ取得しているので、参照信号を第4の態様のような画像信号とすることで、参照信号に基づく輝度信号の補正を効果的に行うことができる。なお第4の態様において、参照信号取得画素は第1の画素、第2の画素及び第3の画素のうち複数の画素を含んでいてよい。 The endoscope system according to a fourth aspect is the second or third aspect, wherein the first reference signal and the second reference signal are the first pixel, the second pixel, and the third pixel, respectively. This is an image signal obtained by adding the image signals of the respective colors of the reference signal acquisition pixels, which are pixels different from the pixels from which the first image signal and the second image signal are acquired. In the fourth aspect, the image signal of each color of the reference signal acquisition pixel is added in consideration of the case where any of the reference signal acquisition pixels has sensitivity (subsensitivity) to the third illumination light as the reference light. The image signal is a first reference signal and a second reference signal. As described above, the first and second luminance signals are acquired from the pixels having the highest spectral sensitivity at the first and second wavelengths, respectively, so that the reference signal is an image signal as in the fourth mode. Thus, it is possible to effectively correct the luminance signal based on the reference signal. In the fourth aspect, the reference signal acquisition pixel may include a plurality of pixels among the first pixel, the second pixel, and the third pixel.
なお「副感度」とは、撮像素子の各画素に設けられたカラーフィルタの色の光以外の色の光に対する各画素の受光センサの感度を意味し、例えば赤色画素(カラーフィルタが赤色)ならば青色光に対する感度及び緑色光に対する感度である。カラーフィルタの色の光に対する感度は「主感度」である。 The “sub-sensitivity” means the sensitivity of the light receiving sensor of each pixel with respect to light of a color other than that of the color filter provided in each pixel of the image sensor. For example, if the pixel is a red pixel (the color filter is red) For example, the sensitivity to blue light and the sensitivity to green light. The sensitivity of the color filter to light is “main sensitivity”.
第5の態様に係る内視鏡システムは第4の態様において、第3の照明光は、参照信号取得画素の分光感度の総和が最大になる波長を有する。第3の照明光(参照光)の波長を第5の態様のように設定することで、第3の照明光の光量を少なくした場合でも輝度信号の補正をさらに効果的に行うことができる。なお第5の態様において「分光感度の総和が最大になる波長」とは、分光感度の総和が数値上最大値となる波長だけでなく、分光感度の総和が、輝度ムラ補正の効果に実質的な影響がない範囲で数値上の最大値からずれた波長をも含むものとする。 In an endoscope system according to a fifth aspect, in the fourth aspect, the third illumination light has a wavelength that maximizes the sum of the spectral sensitivities of the reference signal acquisition pixels. By setting the wavelength of the third illumination light (reference light) as in the fifth aspect, the luminance signal can be corrected more effectively even when the amount of the third illumination light is reduced. In the fifth aspect, “the wavelength at which the sum of the spectral sensitivities is maximum” means not only the wavelength at which the sum of the spectral sensitivities is numerically the maximum value, but also the sum of the spectral sensitivities is substantially effective in correcting the luminance unevenness. It also includes wavelengths that deviate from the maximum numerical value within a range where there is no significant influence.
第6の態様に係る内視鏡システムは第4又は第5の態様において、第1の照明光及び第2の照明光のそれぞれの設定光量と、第1の照明光及び第2の照明光に対する参照信号取得画素の分光感度とに基づいて、第1の参照信号及び第2の参照信号を補正する参照信号補正部を更に備え、輝度補正部は、参照信号補正部により補正された第1の参照信号及び第2の参照信号に基づいて第1の輝度信号及び第2の輝度信号のうちの少なくとも一方の輝度信号を画素毎又は撮像領域毎に補正する。第1,第2の発光制御において参照光(第3の照明光)を同じ光量で発光させても、各画素の受光センサの副感度の影響で第1,第2の画像信号における参照信号(第1,第2の参照信号)の値が異なるため、第6の態様では第1,第2の照明光の設定光量と参照信号取得画素の分光感度とに基づいて第1,第2の参照信号を補正し、補正後の参照信号に基づいて輝度信号の補正を行うようにしたものである。 The endoscope system which concerns on a 6th aspect is set with respect to each setting light quantity of 1st illumination light and 2nd illumination light, and 1st illumination light and 2nd illumination light in the 4th or 5th aspect. A reference signal correction unit that corrects the first reference signal and the second reference signal based on the spectral sensitivity of the reference signal acquisition pixel is further provided, and the brightness correction unit is corrected by the reference signal correction unit. Based on the reference signal and the second reference signal, at least one of the first luminance signal and the second luminance signal is corrected for each pixel or each imaging region. Even if the reference light (third illumination light) is emitted with the same light amount in the first and second light emission control, the reference signals (first and second image signals) due to the subsensitivity of the light receiving sensor of each pixel ( Since the values of the first and second reference signals are different, in the sixth aspect, the first and second references are based on the set light amounts of the first and second illumination lights and the spectral sensitivities of the reference signal acquisition pixels. The signal is corrected, and the luminance signal is corrected based on the corrected reference signal.
第7の態様に係る内視鏡システムは第2から第6の態様のいずれか1つにおいて、画像信号取得部が取得した第1の輝度信号が示す画像と第2の輝度信号が示す画像との位置合わせを行う位置合わせ部を更に備える。第7の態様によれば、画像の位置合わせを行うことにより輝度ムラを精度良く補正することができる。 An endoscope system according to a seventh aspect is the endoscope system according to any one of the second to sixth aspects, wherein an image indicated by the first luminance signal acquired by the image signal acquisition unit and an image indicated by the second luminance signal An alignment unit that performs the alignment is further provided. According to the seventh aspect, luminance unevenness can be corrected with high accuracy by aligning images.
第8の態様に係る内視鏡システムは第2から第7の態様のいずれか1つにおいて、輝度補正部による第1の輝度信号及び第2の輝度信号のうちの少なくとも一方の輝度信号の補正前に、第1の輝度信号と第2の輝度信号との平均輝度を合わせる補正を行う平均輝度補正部を更に備える。第8の態様は、輝度信号を局所的に(画素毎又は撮像領域毎に)補正する前に平均輝度を合わせることで、局所的な補正をより効果的に行えるようにしたものである。 The endoscope system according to an eighth aspect is the correction of at least one of the first luminance signal and the second luminance signal by the luminance correction unit according to any one of the second to seventh aspects. Before, it further includes an average luminance correction unit that performs correction to match the average luminance of the first luminance signal and the second luminance signal. In the eighth aspect, local correction can be performed more effectively by adjusting the average luminance before correcting the luminance signal locally (for each pixel or each imaging region).
第9の態様に係る内視鏡システムは第2から第8の態様のいずれか1つにおいて、輝度補正部は、第1の輝度信号及び第2の輝度信号のうちの一方の輝度信号に、第1の参照信号と第2の参照信号との比を乗算する。第9の態様は、輝度補正部での補正内容を具体的に規定するものである。 In the endoscope system according to the ninth aspect, in any one of the second to eighth aspects, the luminance correction unit outputs one luminance signal of the first luminance signal and the second luminance signal, Multiply the ratio between the first reference signal and the second reference signal. In the ninth aspect, the correction contents in the luminance correction unit are specifically defined.
第10の態様に係る内視鏡システムは第2から第9の態様のいずれか1つにおいて、第1の参照信号及び第2の参照信号の高周波成分を低減させる周波数処理部を更に備え、輝度補正部は、周波数処理部により処理された第1の参照信号及び第2の参照信号に基づいて第1の輝度信号及び第2の輝度信号のうちの少なくとも一方の輝度信号を画素毎又は撮像領域毎に補正する。第10の態様は、参照信号には各画素の受光センサの副感度により照明光による信号が含まれるため、参照信号の高周波成分(照明光による信号成分)を低減させる処理を行うことを規定したものである。 An endoscope system according to a tenth aspect according to any one of the second to ninth aspects further includes a frequency processing unit that reduces high-frequency components of the first reference signal and the second reference signal, and brightness The correction unit converts at least one of the first luminance signal and the second luminance signal based on the first reference signal and the second reference signal processed by the frequency processing unit for each pixel or imaging region. Correct every time. In the tenth aspect, since the reference signal includes a signal due to illumination light due to the subsensitivity of the light receiving sensor of each pixel, it is specified that processing for reducing a high-frequency component (signal component due to illumination light) of the reference signal is performed. Is.
第11の態様に係る内視鏡システムは第10の態様において、周波数処理部は、撮像部から被検体までの観察距離に基づいて第1の参照信号及び第2の参照信号の高周波成分を低減させる。第11の態様は参照信号の高周波成分低減の具体的な態様を規定するもので、受光センサの副感度の影響は観察距離(撮像部から被検体までの距離)に応じて定まることを考慮している。 The endoscope system according to an eleventh aspect is the tenth aspect, in which the frequency processing unit reduces high-frequency components of the first reference signal and the second reference signal based on the observation distance from the imaging unit to the subject. Let The eleventh aspect prescribes a specific aspect of reducing the high-frequency component of the reference signal. Considering that the influence of the sub-sensitivity of the light receiving sensor is determined according to the observation distance (distance from the imaging unit to the subject). ing.
第12の態様に係る内視鏡システムは第11の態様において、撮像部から被検体までの観察距離毎に目標とする目標周波数特性を保持する記憶部を備え、周波数処理部は、撮像部による撮像時の観察距離に基づいて記憶部から対応する目標周波数特性を取得し、第1の参照信号及び第2の参照信号の周波数特性を取得した目標周波数特性に調整する。第12の態様は参照信号の高周波成分低減のさらに具体的な態様を規定するもので、参照信号の周波数特性を観察距離に応じた目標周波数特性に調整する。 An endoscope system according to a twelfth aspect includes, in the eleventh aspect, a storage unit that holds target frequency characteristics targeted for each observation distance from the imaging unit to the subject, and the frequency processing unit is based on the imaging unit. Based on the observation distance at the time of imaging, the corresponding target frequency characteristic is acquired from the storage unit, and the frequency characteristics of the first reference signal and the second reference signal are adjusted to the acquired target frequency characteristic. The twelfth aspect defines a more specific aspect of reducing the high-frequency component of the reference signal, and adjusts the frequency characteristic of the reference signal to a target frequency characteristic corresponding to the observation distance.
第13の態様に係る内視鏡システムは第11又は第12の態様において、周波数処理部は、撮像部による撮像時の観察距離が近い程、第1の参照信号及び第2の参照信号から高周波成分を低減させる処理を強くする。第13の態様は参照信号の高周波成分低減のさらに具体的な態様を規定するもので、受光センサの副感度の影響は観察距離が近いほど大きいため、距離が近いほど低減処理を強くするようにしている。 The endoscope system according to a thirteenth aspect is the eleventh or twelfth aspect, in which the frequency processing unit has a higher frequency from the first reference signal and the second reference signal as the observation distance during imaging by the imaging unit is closer. Strengthen processing to reduce ingredients. The thirteenth mode prescribes a more specific mode of reducing the high-frequency component of the reference signal. Since the influence of the sub-sensitivity of the light receiving sensor is larger as the observation distance is closer, the reduction processing is strengthened as the distance is shorter. ing.
第14の態様に係る内視鏡システムは第2から第13の態様のいずれか1つにおいて、画像信号生成部は、輝度補正部により補正された第1の輝度信号と第2の輝度信号との差分信号を算出する差分算出部と、算出した差分信号から色差信号を生成する色差信号生成部と、第1の輝度信号及び第2の輝度信号のうちの一方の輝度信号と生成した色差信号とを有するカラー画像信号、又は第1の輝度信号及び第2の輝度信号のうちの一方の輝度信号と生成した色差信号を三原色の各画像信号に変換したカラー画像信号を生成するカラー画像生成部と、を有する。第14の態様は、画像信号生成部におけるカラー画像の生成を具体的に規定するものである。 In the endoscope system according to a fourteenth aspect, in any one of the second to thirteenth aspects, the image signal generation unit includes a first luminance signal and a second luminance signal corrected by the luminance correction unit. A difference calculation unit that calculates a difference signal of the color difference signal, a color difference signal generation unit that generates a color difference signal from the calculated difference signal, and one of the first luminance signal and the second luminance signal, and the generated color difference signal Or a color image generation unit for generating a color image signal obtained by converting one of the first luminance signal and the second luminance signal and the generated color difference signal into each of the three primary color image signals. And having. The fourteenth aspect specifically defines the generation of a color image in the image signal generation unit.
第15の態様に係る内視鏡システムは第2から第14の態様のいずれか1つにおいて、被検体の構造は血管であり、画像信号生成部は、血管を色により強調した画像信号を生成する。第15の態様によれば、被検体の構造としての血管を視覚により容易に観察することができる。 An endoscope system according to a fifteenth aspect is the endoscope system according to any one of the second to fourteenth aspects, wherein the structure of the subject is a blood vessel, and the image signal generation unit generates an image signal in which the blood vessel is emphasized by color To do. According to the fifteenth aspect, blood vessels as the structure of the subject can be easily observed visually.
本発明の第16の態様に係るプロセッサ装置は、第2から第15の態様のいずれか1つに係る内視鏡システムのプロセッサ装置であって、光源と、光源制御部と、画像信号取得部と、輝度補正部と、画像信号生成部と、を備える。第16の態様は撮像装置(内視鏡システムの撮像部、内視鏡装置等)により取得した画像信号を処理するプロセッサ装置を規定するもので、第2から第15の態様と同様に、被検体の構造を強調した画像信号を生成することにより被検体の構造を容易に観察することができる。 A processor device according to a sixteenth aspect of the present invention is a processor device for an endoscope system according to any one of the second to fifteenth aspects, and includes a light source, a light source control unit, and an image signal acquisition unit. And a luminance correction unit and an image signal generation unit. The sixteenth aspect defines a processor device that processes an image signal acquired by an image pickup apparatus (an image pickup unit of an endoscope system, an endoscope apparatus, etc.). As in the second to fifteenth aspects, By generating an image signal that emphasizes the structure of the specimen, the structure of the specimen can be easily observed.
上述した目的を達成するため、本発明の第17の態様に係る信号処理方法は、対物レンズと、三原色の各色に対応するカラーフィルタが配列された第1の画素、第2の画素及び第3の画素を有する撮像素子とを含む撮像部による被検体の撮像時に、それぞれ波長の異なる第1の波長、第2の波長及び第3の波長をピークとする第1の照明光、第2の照明光及び第3の照明光を発光する光源から、第1の照明光と第3の照明光とを同時に発光させる第1の発光制御と、第2の照明光と第3の照明光とを同時に発光させる第2の発光制御とを順次行うステップと、第1の発光制御が行われるときに、撮像素子の第1の画素、第2の画素及び第3の画素のうちの、第1の波長に最も分光感度の高い画素から第1の輝度信号を取得し、かつ撮像素子の第1の画素、第2の画素及び第3の画素のうちの第3の波長に感度を有する画素であって、少なくとも第1の波長に最も分光感度の高い画素とは異なる画素から第1の参照信号を取得し、第2の発光制御が行われるときに、撮像素子の第1の画素、第2の画素及び第3の画素のうちの、第2の波長に最も分光感度の高い画素から第2の輝度信号を取得し、かつ撮像素子の第1の画素、第2の画素及び第3の画素のうちの第3の波長に感度を有する画素であって、少なくとも第2の波長に最も分光感度の高い画素とは異なる画素から第2の参照信号を取得するステップと、を含む。第17の態様によれば、第1の態様と同様に被検体の構造を観察するための画像生成に必要な信号を容易に取得することができる。 In order to achieve the above-described object, a signal processing method according to a seventeenth aspect of the present invention includes a first pixel, a second pixel, and a third pixel in which an objective lens and color filters corresponding to the three primary colors are arranged. When the subject is imaged by the imaging unit including the imaging element having the first and second pixels, the first illumination light and the second illumination have a first wavelength, a second wavelength, and a third wavelength having different wavelengths, respectively. First light emission control for simultaneously emitting first illumination light and third illumination light from a light source that emits light and third illumination light, and second illumination light and third illumination light simultaneously. The step of sequentially performing the second light emission control to emit light, and the first wavelength of the first pixel, the second pixel, and the third pixel of the image sensor when the first light emission control is performed. The first luminance signal is acquired from the pixel having the highest spectral sensitivity, and the image sensor The first reference from a pixel that is sensitive to the third wavelength among the one pixel, the second pixel, and the third pixel and that is different from the pixel having the highest spectral sensitivity at least at the first wavelength When the signal is acquired and the second light emission control is performed, the first pixel, the second pixel, and the third pixel of the image sensor are changed from the pixel having the highest spectral sensitivity to the second wavelength. 2 having a luminance signal of 2 and having sensitivity to the third wavelength among the first pixel, the second pixel, and the third pixel of the image sensor, and most spectrally at least at the second wavelength. Obtaining a second reference signal from a pixel different from the highly sensitive pixel. According to the seventeenth aspect, a signal necessary for image generation for observing the structure of the subject can be easily obtained as in the first aspect.
第18の態様に係る信号処理方法は第17の態様において、第1の参照信号及び第2の参照信号に基づいて第1の輝度信号及び第2の輝度信号のうちの少なくとも一方の輝度信号を画素毎又は撮像領域毎に補正するステップと、補正された第1の輝度信号及び第2の輝度信号に基づいて被検体の構造を強調した画像信号を生成するステップと、をさらに備える。第18の態様によれば、第2の態様と同様に局所的な輝度ムラ(明るさの違い)が除去された画像を生成でき、被検体の構造を容易に観察することができる。 A signal processing method according to an eighteenth aspect is the signal processing method according to the seventeenth aspect, wherein at least one of the first luminance signal and the second luminance signal is obtained based on the first reference signal and the second reference signal. The method further includes a step of correcting for each pixel or each imaging region, and a step of generating an image signal in which the structure of the subject is emphasized based on the corrected first luminance signal and second luminance signal. According to the eighteenth aspect, similarly to the second aspect, an image from which local luminance unevenness (difference in brightness) is removed can be generated, and the structure of the subject can be easily observed.
第17,第18の態様に係る信号処理方法において、第3から第15の態様と同様の構成をさらに含めてもよい。また、これら態様の信号処理方法を内視鏡システムやプロセッサ装置に実現させるプログラム、及びそのようなプログラムのコンピュータ読み取り可能なコードを記録した非一時的記録媒体も、本発明の態様として挙げることができる。そのような非一時的記録媒体の例としてはROM(Read Only Memory)やEEPROM(Electronically Erasable and Programmable Read Only Memory)のような半導体記録媒体や、DVD(Digital Versatile Disk)及びハードディスク等の光磁気記録媒体を挙げることができるが、これらに限定されるものではない。 In the signal processing methods according to the seventeenth and eighteenth aspects, configurations similar to the third to fifteenth aspects may be further included. In addition, a program that causes an endoscope system or a processor device to implement the signal processing method of these aspects, and a non-transitory recording medium that records a computer-readable code of such a program can also be cited as aspects of the present invention. it can. Examples of such non-temporary recording media include semiconductor recording media such as ROM (Read Only Memory) and EEPROM (Electronically Erasable and Programmable Read Only Memory), and magneto-optical recording such as DVD (Digital Versatile Disk) and hard disks. Although a medium can be mentioned, it is not limited to these.
以上説明したように、本発明に係る内視鏡システム及び信号処理方法によれば、被検体の構造を観察するための画像生成に必要な信号を容易に取得することができる。また本発明に係るプロセッサ装置によれば、内視鏡システムで取得した信号により被検体の構造を観察するための画像を容易に生成することができる。 As described above, according to the endoscope system and the signal processing method according to the present invention, signals necessary for image generation for observing the structure of the subject can be easily acquired. Further, according to the processor device of the present invention, it is possible to easily generate an image for observing the structure of the subject based on a signal acquired by the endoscope system.
以下、添付図面を参照して本発明に係る内視鏡システム、プロセッサ装置、及び信号処理方法の実施形態について説明する。 Hereinafter, embodiments of an endoscope system, a processor device, and a signal processing method according to the present invention will be described with reference to the accompanying drawings.
[第1実施形態]
図1は第1実施形態に係る内視鏡システム10(内視鏡システム)を示す外観図である。図2は内視鏡システム10の機能を示すブロック図である。図1に示すように、内視鏡システム10は、内視鏡12と、光源装置14(光源、光源制御部、プロセッサ装置)と、プロセッサ装置16(プロセッサ装置)と、モニタ18と、コンソール19とを有する。内視鏡12は、光源装置14と光学的に接続され、かつプロセッサ装置16と電気的に接続される。
[First Embodiment]
FIG. 1 is an external view showing an endoscope system 10 (endoscope system) according to the first embodiment. FIG. 2 is a block diagram showing functions of the
内視鏡12は、被検体内に挿入される挿入部12aと、挿入部12aの基端部分に設けられた操作部12bと、挿入部12aの先端側に設けられた湾曲部12c及び先端部12dを有している。操作部12bのアングルノブ12eを操作することにより、湾曲部12cは湾曲動作する。この湾曲動作によって先端部12dが所望の方向に向けられる。
The
操作部12bには、アングルノブ12eの他、モード切替スイッチ13a及びズーム操作部13bが設けられている。また、操作部12bには静止画像取得指示部13cが設けられている(図2参照)。
In addition to the
モード切替スイッチ13aは、観察モードの切り替え操作に用いられる。内視鏡システム10は、観察モードとして通常観察モードと特殊観察モードとを有している。通常観察モードは、照明光に白色光を用いて観察対象を撮像して得られる画像をモニタ18に表示するモードである。通常観察モードで観察対象を撮像して得られる画像を「通常観察画像」という。通常観察モードは「白色光観察モード」と言い換えることができる。通常観察画像は「白色光観察画像」と言い換えることができる。照明光は「観察光」と言い換えることができる。
The
特殊観察モードは、特定の波長帯域の狭帯域光を照明光として観察対象を撮像して得られる画像信号を用いて、観察対象の特定深さ領域に在る血管を強調した可視化画像を生成し、血管の観察に適した画像をモニタ18に表示するモードである。特殊観察モードで得られる画像を「特殊観察画像」という。特殊観察モードは「狭帯域観察モード」と言い換えることができる。特殊観察画像は「血管強調画像」又は「狭帯域観察画像」と言い換えることができる。本例の内視鏡12は、使用する狭帯域光の波長帯域の種類又はその組み合わせが異なる複数種類の特殊観察モードを有している。
The special observation mode generates a visualized image that emphasizes blood vessels in a specific depth region of the observation target using an image signal obtained by imaging the observation target using narrowband light of a specific wavelength band as illumination light. In this mode, an image suitable for blood vessel observation is displayed on the
プロセッサ装置16は、モニタ18及びコンソール19と電気的に接続される。モニタ18は、観察対象の画像や観察対象の画像に付帯する情報等を出力表示する表示デバイスである。コンソール19は、内視鏡システム10の機能設定や各種指示等の入力操作を受け付けるユーザインターフェースとして機能する。プロセッサ装置16には、図示せぬ外部記憶装置が接続されていてもよい。外部記憶装置には、観察対象の画像及び画像に付帯する情報等を記録することができる。図2に示したストレージ70は外部記憶装置の一例であり、外付けの記録部として機能する。
The
図2に示すように、光源装置14は、光源20(光源)と、光源20を制御する光源制御部22(光源制御部)と、を備えている。光源20は、例えば、複数色のLED(Light Emitting Diode)等の半導体光源、レーザーダイオードと蛍光体の組み合わせ、若しくはキセノンランプ等のハロゲン光源、又はこれらの適宜の組み合わせによって構成される。また、光源20には、LED等の発光源が発光した光の波長帯域を調整するための図示されない光学フィルタ等が含まれる。
As shown in FIG. 2, the
本実施形態の光源20は、V−LED(Violet Light Emitting Diode)23a、B−LED(Blue Light Emitting Diode)23b、G−LED(Green Light Emitting Diode)23c及びR−LED(Red Light Emitting Diode)23dの四色のLEDを有する。
The
図3は光源20の分光スペクトルの例を示すグラフである。V−LED23aは、中心波長が400nm±10nm程度である波長帯域380nm〜420nmの紫色光Vを発光する紫色半導体光源である。B−LED23bは、中心波長が450nm±10nm程度である波長帯域420nm〜500nmの青色光Bを発する青色半導体光源である。G−LED23cは、中心波長が550nm±20nm程度であり、波長帯域が480nm〜620nmに及ぶ緑色光Gを発する緑色半導体光源である。R−LED23dは、中心波長が610nm±10nm程度であり、波長帯域が580nm〜650nmに及ぶ赤色光Rを発光する赤色半導体光源である。中心波長という用語は分光強度が極大になるピーク波長と読み替えてもよい。なお、図3において、G−LED23cとR−LED23dの光強度の和を点線(参照符号G+R)で示す。
FIG. 3 is a graph showing an example of the spectrum of the
光源制御部22は、LED等の発光源の点灯(オン)及び消灯(オフ)やLED等の駆動電流や駆動電圧の調整によって照明光の光量を制御する。また、光源制御部22は、光学フィルタの変更等によって照明光の波長帯域を制御する。光源制御部22は、光源20の各LEDに対して個別に制御信号を入力することにより、各LEDの点灯や消灯並びに点灯時の発光光量を各々独立に制御することができる。光源20は、光源制御部22の制御によって、観察対象に照射する複数種類の照明光を発生する。
The light
本例の光源20は、紫色波長帯域(約350nm〜400nmの波長帯域)に中心波長を有する紫色狭帯域光、青色波長帯域(約400nm〜500nmの波長帯域)に中心波長を有する青色狭帯域光、緑色波長帯域(約480nm〜620nmの波長帯域)に中心波長を有する緑色狭帯域光、及び赤色波長帯域(約580nm〜650nmの波長帯域)に中心波長を有する赤色狭帯域光など、複数種類の狭帯域光を発生することができる。
The
より具体的な例として、光源20は、中心波長405nmの紫色狭帯域光、中心波長445nmの青色狭帯域光、中心波長530nmの緑色狭帯域光、及び中心波長610nmの赤色狭帯域光などの狭帯域光を発生させることができる。また光源20は、中心波長470nmの青色狭帯域光を発生させることが可能であり、中心波長が異なる2種類以上の青色狭帯域光を発生させることもできる。紫色狭帯域光、緑色狭帯域光、及び赤色狭帯域光の各々についても中心波長が異なる2種類以上の狭帯域光を発生させることができる。各狭帯域光の中心波長及び波長帯域は発光させるLEDの選択及び図示せぬ光学フィルタの変更によって指定することができる。
As a more specific example, the
本開示において、光源20が発生する中心波長405nmの紫色狭帯域光を「紫色光V」と表記する場合がある。また、中心波長445nmの青色狭帯域光を「青色光B」、中心波長530nmの緑色狭帯域光を「緑色光G」、中心波長610nmの赤色狭帯域光を「赤色光R」と表記する場合がある。
In the present disclosure, purple narrow band light having a central wavelength of 405 nm generated by the
特殊観察モードが選択された場合、光源20は複数種類の狭帯域光のうち、中心波長が互いに異なる少なくとも2種類以上の狭帯域光を発生し、各々の狭帯域光が照射された観察対象を撮像センサ48によって撮像する。したがって、特殊観察モードでは、狭帯域光の種類に対応した複数種類の内視鏡画像が得られる。本実施形態では、特殊観察モードの場合に、光源20は、中心波長が互いに異なる第1狭帯域光と第2狭帯域光の2種類の狭帯域光を交互に発生し得る。これら2種類の狭帯域光のうち第1狭帯域光は相対的に短波長側の狭帯域光であり、第2狭帯域光は相対的に長波長側の狭帯域光であるとする。つまり、第2狭帯域光の中心波長は第1狭帯域光の中心波長よりも長波長である。例えば、第1狭帯域光は中心波長が405nmの紫色狭帯域光であり、第2狭帯域光は中心波長が445nm程度の青色狭帯域光である。
When the special observation mode is selected, the
本実施形態では、中心波長が短い順に第1狭帯域光及び第2狭帯域光の2種類の狭帯域光を例示し、これらの狭帯域光を選択的に切り替えて特殊観察画像を生成する形態を説明する。なお、発明の実施に際して、狭帯域光の種類はこの例に限らず、更に多数種の狭帯域光を使用する形態も可能である。 In the present embodiment, two types of narrowband light, the first narrowband light and the second narrowband light, are illustrated in the order of shorter center wavelength, and a special observation image is generated by selectively switching these narrowband lights. Will be explained. In the implementation of the invention, the type of narrowband light is not limited to this example, and a mode in which many types of narrowband light are used is also possible.
また光源20は、白色光を発生することができる。通常観察モードの場合、光源制御部22は、V−LED23a、B−LED23b、G−LED23c、及びR−LED23dを全て点灯させる。このため、通常観察モードでは、紫色光V、青色光B、緑色光G、及び赤色光Rを含む広い波長帯域の白色光が照明光として用いられる。光源装置14は「光源部」の一形態に相当する。
The
光源20が発した照明光は、図示されないミラーやレンズ等で形成される光路結合部を介してライトガイド41に入射される。ライトガイド41は内視鏡12及びユニバーサルコードに内蔵されている。ユニバーサルコードは、内視鏡12と、光源装置14及びプロセッサ装置16を接続するコードである。ライトガイド41は、挿入部12a内に挿通されており、光源20が発生した照明光を内視鏡12の先端部12dまで伝搬する。
Illumination light emitted from the
内視鏡12の先端部12dには、照明光学系30aと撮像光学系30b(撮像部)が設けられている。照明光学系30aは照明レンズ45を有している。ライトガイド41によって伝搬された照明光は照明レンズ45を介して観察対象に照射される。撮像光学系30bは、対物レンズ46、ズームレンズ47及び撮像センサ48(撮像素子)を有している。照明光を照射したことによる観察対象からの反射光、散乱光及び蛍光等の各種の光は、対物レンズ46及びズームレンズ47を介して撮像センサ48に入射する。これにより、撮像センサ48に観察対象の像が結像される。ズームレンズ47は、ズーム操作部13bの操作に応じてズーム範囲の望遠端と広角端との間で自在に移動され、撮像センサ48に結像する観察対象の像を拡大又は縮小する。
The
撮像センサ48は、画素毎にR(赤色)、G(緑色)、又はB(青色)のカラーフィルタ(三原色の各色)のいずれかが配列されたカラー撮像センサである。撮像センサ48は、観察対象を撮像してRGB各色チャンネルの画像信号を出力する。撮像センサ48としては、CCD(Charge Coupled Device)撮像センサやCMOS(Complementary Metal Oxide Semiconductor)撮像センサを利用可能である。また、原色のカラーフィルタが設けられた撮像センサ48の代わりに、C(シアン)、M(マゼンタ)、Y(イエロー)及びG(緑)の補色フィルタを備えた補色撮像センサを用いてもよい。補色撮像センサを用いる場合には、CMYGの四色の画像信号が出力される。このため、補色−原色色変換によって、CMYGの四色の画像信号をRGBの三色の画像信号に変換することにより、撮像センサ48と同様のRGB画像信号を得ることができる。また、撮像センサ48の代わりに、カラーフィルタを設けていないモノクロセンサを用いてもよい。
The
図4は撮像センサ48に使用されているカラーフィルタの分光特性を示すグラフである。横軸は波長を表し、縦軸は透過率を表す。図4においてB−CFはBカラーフィルタ、G−CFはGカラーフィルタ、R−CFはRカラーフィルタのそれぞれの分光特性を示している。紫色から青色の波長帯域の光は、撮像センサ48においてBカラーフィルタが設けられたB画素(第1の画素)で受光される。緑色の波長帯域の光は撮像センサ48においてGカラーフィルタが設けられたG画素(第2の画素)で受光される。赤色の波長帯域の光は撮像センサ48においてRカラーフィルタが設けられたR画素(第3の画素)で受光される。撮像センサ48のRGB各色の画素から受光光量に応じた信号が出力される。
FIG. 4 is a graph showing the spectral characteristics of the color filter used in the
例えば、特殊観察モードにおいて、紫色の波長帯域である第1狭帯域光が照明光(第1の照明光)として用いられた場合、撮像センサ48は、第1狭帯域光が照射された観察対象を撮像し、第1狭帯域光に対応する第1の画像信号をB画素から出力する。また、特殊観察モードにおいて、青色の波長帯域である第2狭帯域光が照明光(第2の照明光)として用いられた場合、撮像センサ48は、第2狭帯域光に対応する第2の画像信号をB画素から出力する。
For example, in the special observation mode, when the first narrowband light that is a purple wavelength band is used as illumination light (first illumination light), the
内視鏡12は、AFE(Analog Front End)回路51とAD(Analog to Digital)コンバータ52を備える。撮像センサ48が出力する画像信号はAFE回路51に入力される。AFE回路51は、相関二重サンプリング(CDS;Correlated Double Sampling)回路及び自動利得制御(AGC;Automatic Gain Control)回路を含む。AFE回路51は、撮像センサ48から得られるアナログの画像信号に相関二重サンプリングや自動利得制御を行う。AFE回路51を経た画像信号は、ADコンバータ52によりデジタル画像信号に変換される。AD(Analog to Digital)変換後のデジタル画像信号はプロセッサ装置16に入力される。なお、AFE回路51にADコンバータ52を搭載する形態も可能である。
The
プロセッサ装置16は、画像信号取得部53(画像信号取得部)と、DSP(Digital Signal Processor)56と、ノイズ低減部58と、メモリ59と、信号処理部60と、映像信号生成部68と、を備えている。
The
画像信号取得部53は、内視鏡12からデジタル画像信号を取得する。DSP56は、画像信号取得部53を介して取得した画像信号に対して、欠陥補正処理、オフセット処理、ゲイン補正処理、リニアマトリクス処理、ガンマ変換処理、デモザイク処理等の各種信号処理を施す。欠陥補正処理では、撮像センサ48の欠陥画素の信号が補正される。オフセット処理では、欠陥補正処理が施された画像信号から暗電流成分が除かれ、正確な零レベルが設定される。ゲイン補正処理では、オフセット処理後の画像信号に特定のゲインを乗じることにより信号レベルが整えられる。
The image
ゲイン補正処理後の画像信号には、色再現性を高めるためのリニアマトリクス処理が施される。その後、ガンマ変換処理によって明るさや彩度が整えられる。ガンマ変換処理後の画像信号には、デモザイク処理が施され、各画素で不足した色の信号が補間によって生成される。デモザイク処理は、等方化処理又は同時化処理とも呼ばれる。デモザイク処理によって、全画素がRGB各色の信号を有するようになる。 The image signal after gain correction processing is subjected to linear matrix processing for improving color reproducibility. After that, brightness and saturation are adjusted by gamma conversion processing. The demosaic process is performed on the image signal after the gamma conversion process, and a signal of a color that is insufficient at each pixel is generated by interpolation. The demosaic process is also called an isotropic process or a synchronization process. Through the demosaic processing, all pixels have signals of RGB colors.
ノイズ低減部58は、DSP56でデモザイク処理等が施された画像信号に対してノイズ低減処理を施すことによってノイズを低減する。ノイズ低減処理として、例えば移動平均法やメディアンフィルタ法等による処理を採用することができる。ノイズ低減部58によりノイズを低減した画像信号は、メモリ59に記憶される。
The
信号処理部60はノイズ低減後の画像信号をメモリ59から取得する。信号処理部60は、取得した画像信号に対して、必要に応じて、色変換処理、色彩強調処理、及び構造強調処理等の信号処理を施し、観察対象が写ったカラーの内視鏡画像を生成する。色変換処理は、画像信号に対して3×3のマトリックス処理、階調変換処理、及び3次元ルックアップテーブル処理などにより色の変換を行う処理である。色彩強調処理は、色変換処理済みの画像信号に対して行う。構造強調処理は、例えば血管やピットパターン等の観察対象に含まれる特定の組織や構造を強調する処理であり、色彩強調処理後の画像信号に対して行う。また信号処理部60は、取得した画像信号及びズーム倍率等の撮像条件に基づいて、撮像光学系30bから被検体までの距離(観察距離)を算出する。
The
信号処理部60における処理の内容は、観察モードによって異なる。観察モードが通常観察モードの場合、信号処理部60は、観察対象が自然な色合いになる信号処理を施して通常観察画像を生成する。観察モードが特殊観察モードの場合、信号処理部60は、少なくとも観察対象の血管を強調する信号処理を施して特殊観察画像を生成する。
The contents of processing in the
信号処理部60は、画像処理切替部61と、通常観察画像処理部66と、特殊観察画像処理部67(画像信号生成部)と、位置合わせ処理部62(位置合わせ部)と、明るさ補正処理部63(平均輝度補正部)とを含み、通常観察モード及び特殊観察モードのそれぞれのモードに対応した信号処理を行う。
The
画像処理切替部61は、モード切替スイッチ13aによる観察モードの設定に応じて、通常観察画像の生成処理又は特殊観察画像の生成処理の実施を切り替える。モード切替スイッチ13aの操作によって通常観察モードにセットされている場合、画像処理切替部61は、メモリ59から受信した画像信号を通常観察画像処理部66に送信する。モード切替スイッチ13aの操作によって特殊観察モードにセットされている場合、画像処理切替部61は、メモリ59から受信した画像信号を位置合わせ処理部62、明るさ補正処理部63、参照光補正部64、及び特殊観察画像処理部67に送信する。
The image
通常観察画像処理部66は、通常観察モードに設定されている場合に作動する。通常観察画像処理部66は白色光を観察対象に照射して撮像された画像信号に対して色変換処理、色彩強調処理及び構造強調処理を行い、通常観察画像信号を生成する。通常観察画像信号を用いたカラー画像が通常観察画像である。
The normal observation
特殊観察画像処理部67は、特殊観察モードに設定されている場合に作動する画像処理部である。特殊観察画像処理部67は、波長帯域が異なる二種類の狭帯域光(第1,第2狭帯域光)のうちの相対的に短波長側である第1狭帯域光と、第1狭帯域光より長波長側の狭帯域光である第3狭帯域光(参照光)と、を観察対象に照射して得られる第1の画像信号(第1の輝度信号及び第1の参照信号)と、相対的に長波長側である第2狭帯域光と、第2狭帯域光より長波長側の狭帯域光である第3狭帯域光(参照光)と、を観察対象に照射して得られる第2の画像信号(第2の輝度信号及び第2の参照信号)とを用いて特定深さの血管を抽出し、抽出した血管を他の血管に対して色の違いによって表す特殊観察画像を生成する。
The special observation
なお、ここでは波長帯域が異なる二種類の狭帯域光として中心波長405nmの紫色狭帯域光である第1狭帯域光と、中心波長445nmの青色狭帯域光である第2狭帯域光とを用いる場合を例に説明する。参照光としては、後述するように中心波長600nmの狭帯域光を用いる場合について説明する。 Here, as the two types of narrowband light having different wavelength bands, a first narrowband light that is a purple narrowband light having a center wavelength of 405 nm and a second narrowband light that is a blue narrowband light having a center wavelength of 445 nm are used. A case will be described as an example. As reference light, a case where narrowband light having a center wavelength of 600 nm is used will be described as will be described later.
第1の画像信号と第2の画像信号は、位置合わせ処理部62及び明るさ補正処理部63を介して特殊観察画像処理部67に入力される。位置合わせ処理部62は、上述した狭帯域光の照射を順次行って取得された第1の画像信号が表す観察対象と第2の画像信号が表す観察対象との位置合わせを行う。位置合わせ処理部62の位置合わせ処理により、第1の画像信号と第2の画像信号の画像間の相対的な位置の対応付けが行われ、第1の画像信号と第2の画像信号のそれぞれから同じ画像範囲を取り出すことができる。位置合わせ処理部62は、第1の画像信号又は第2の画像信号のいずれか一方のみについて画像位置の補正を実施してもよいし、両方の画像信号について画像位置の補正を実施してもよい。本例では、第1の画像信号を基準にして第2の画像信号を第1の画像信号の位置に合わせる処理を行う。
The first image signal and the second image signal are input to the special observation
明るさ補正処理部63は、位置合わせ処理部62によって位置合わせされた第1の画像信号及び第2の画像信号の平均輝度が合うように、第1の画像信号及び第2の画像信号のうち少なくとも一方の画像信号の輝度信号を補正する。
The brightness
参照光補正部64(輝度補正部、参照信号補正部、周波数処理部、記憶部)は、参照信号に含まれる高周波成分の低減、及びフレーム間での参照信号のばらつきの影響を補正し、補正後の参照信号に基づいて、第1の画像信号及び第2の画像信号における輝度信号を局所的に(画素毎に又は撮像領域毎に)補正する。 The reference light correction unit 64 (luminance correction unit, reference signal correction unit, frequency processing unit, storage unit) corrects and corrects the influence of the reduction of high frequency components included in the reference signal and the variation of the reference signal between frames. Based on the later reference signal, the luminance signal in the first image signal and the second image signal is corrected locally (for each pixel or for each imaging region).
特殊観察画像処理部67は、参照光補正部64による補正が行われた第1の輝度信号と第2の輝度信号から観察対象の血管を強調する信号処理を施して特殊観察画像を生成する。例えば、特殊観察画像処理部67が生成する特殊観察画像では、粘膜の表面を基準として観察対象内の相対的に浅い位置に在る血管は、例えばブラウン色などのマゼンタ系の色になり、粘膜の表面を基準として観察対象内の比較的深い位置に在る血管は、例えば緑色などのシアン系の色になる。このため、ピンク系の色で表される粘膜に対して、観察対象の血管が色の違いで強調される。なお、粘膜の表面を基準として比較的浅い位置に在る血管は「表層血管」と呼ばれる。表層血管のうち特に粘膜表面に近い極浅い位置に在る血管は「極表層血管」と呼ばれる。また、粘膜の表面を基準として比較的深い位置に在る血管は「中深層血管」と呼ばれる。
The special observation
信号処理部60は、生成した内視鏡画像を映像信号生成部68に入力する。映像信号生成部68は、内視鏡画像をモニタ18に出力表示するための映像信号に変換する。信号処理部60にて生成された内視鏡画像は映像信号生成部68を介してモニタ18に表示させることができる。
The
静止画像取得指示部13cが操作されてレリーズ指示が入力されると、信号処理部60は、生成した内視鏡画像をストレージ70に保存する処理を行う。また、信号処理部60は、メモリ59から読み込んだ画像信号、位置合わせ処理部62で処理された画像信号、明るさ補正処理部63で処理された画像信号、及び参照光補正部64で処理された画像信号のうちのいずれか、若しくは、これらの適宜の組み合わせをストレージ70に保存することができる。
When the still image
ストレージ70は、プロセッサ装置16に接続された外部記憶装置である。ストレージ70は、LAN(Local Area Network)等の通信回線を介してプロセッサ装置16に接続されてもよい。ストレージ70は、例えば、PACS(Picture Archiving and Communication System)等の内視鏡画像をファイリングするシステムのファイルサーバや、NAS(Network Attached Storage)等である。ストレージ70に保存した内視鏡画像は画像処理装置72で使用することができる。
The
画像処理装置72は、内視鏡画像に画像処理を施して血管深さを推定する機能を有する装置である。画像処理装置72は、内視鏡画像に画像処理を施して診断支援のため血管パラメータを算出する診断支援装置として機能する。
The
[特殊観察画像の生成方法]
まず、内視鏡システム10における特殊観察画像の生成方法について説明する。特殊観察モードでは、観察対象を撮像するときに照射する照明光の深達度によって観察可能な血管が存在する粘膜下の深さが概ね決まっている。一般に、波長の短い光は深達度が浅く、粘膜表面付近で散乱吸収を受けて一部の光が反射光として観測される。観察対象である生体組織の光の吸収及び散乱特性は波長依存性があり、波長が長い光ほど深達度が深くなる。
[Special Observation Image Generation Method]
First, a method for generating a special observation image in the
図5は観察対象の散乱係数を示すグラフである。図5の横軸は波長を表し、縦軸は規格化された散乱係数を表している。図5に示すように、短波長になるほど散乱係数は大きくなる。散乱が大きいほど、生体組織の粘膜表層付近で反射される光が多く、中深層に到達する光が少ない。そのため、短波長であるほど深達度は浅く、長波長になるほど深達度は深い。散乱係数には個体差があるものの、波長依存性の傾向は共通している。 FIG. 5 is a graph showing the scattering coefficient of the observation target. The horizontal axis in FIG. 5 represents the wavelength, and the vertical axis represents the normalized scattering coefficient. As shown in FIG. 5, the scattering coefficient increases as the wavelength becomes shorter. The greater the scattering, the more light that is reflected near the surface of the mucosa of the living tissue and the less light that reaches the mid-deep layer. Therefore, the depth of penetration is shallower as the wavelength is shorter, and the depth of penetration is deeper as the wavelength is longer. Although there are individual differences in the scattering coefficient, the tendency of wavelength dependence is common.
特殊観察モードで使用する複数種類の狭帯域光のそれぞれの波長帯域における観察対象の散乱係数は各狭帯域光の深達度、すなわち、その波長帯域で観察可能な血管の粘膜下の深さに関連する。しかしながら既述のとおり、実際の観察対象について内視鏡画像から正確な散乱係数を把握することは困難である。 The scattering coefficient of the observation target in each wavelength band of multiple types of narrowband light used in the special observation mode is the depth of each narrowband light, that is, the submucosal depth of the blood vessel that can be observed in that wavelength band. Related. However, as described above, it is difficult to grasp an accurate scattering coefficient from an endoscopic image for an actual observation target.
一方、各狭帯域光の波長帯域におけるヘモグロビンの吸収係数は、各狭帯域光で観察可能な血管のコントラストに関連する。 On the other hand, the absorption coefficient of hemoglobin in the wavelength band of each narrowband light is related to the contrast of blood vessels that can be observed with each narrowband light.
図6はヘモグロビンの吸収係数を示すグラフである。図6の横軸は波長を表し、縦軸は規格化された吸収係数(吸光係数)を表している。図6から把握されるとおり、短波長の光はヘモグロビン吸収が大きく、かつ光の散乱も大きい(図5参照)。このため短波長の狭帯域光を照射して撮像した画像は、浅い位置に在る血管のコントラストが高いが、深い位置に在る血管のコントラストは急激に低くなる。一方、照明光に使用する狭帯域光が長波長になるに従い、浅い位置に在る血管のコントラストは低くなるが、深い位置に在る血管のコントラストの低下は比較的緩やかになる。このような特性を利用して、照明光の波長を変えて撮像した二つの画像の差分情報から、任意の深さの血管情報を可視化することができる。 FIG. 6 is a graph showing the absorption coefficient of hemoglobin. The horizontal axis in FIG. 6 represents the wavelength, and the vertical axis represents the normalized absorption coefficient (absorption coefficient). As can be seen from FIG. 6, short-wavelength light has large hemoglobin absorption and large light scattering (see FIG. 5). For this reason, an image captured by irradiating narrow-band light with a short wavelength has a high contrast of blood vessels at shallow positions, but a contrast of blood vessels at deep positions is rapidly lowered. On the other hand, as the narrow-band light used for the illumination light has a longer wavelength, the contrast of the blood vessel at the shallow position is lowered, but the contrast of the blood vessel at the deep position is relatively moderate. By utilizing such characteristics, blood vessel information at an arbitrary depth can be visualized from difference information between two images picked up by changing the wavelength of illumination light.
例えば、短波長側の照明光として、中心波長405nmの紫色狭帯域光と、中心波長445nmの青色狭帯域光との二種類の波長帯域の照明光をそれぞれ照射して撮像を行うことにより得られた画像の一方を輝度信号に割り当て、両画像の差分画像を色差信号に割り当てることで、粘膜の表層に在る血管が抽出され、抽出された血管を強調した画像を作成することができる。 For example, it is obtained by performing imaging by irradiating illumination light of two types of wavelength bands, violet narrow band light having a center wavelength of 405 nm and blue narrow band light having a center wavelength of 445 nm, as illumination light on the short wavelength side. By assigning one of the images to the luminance signal and assigning the difference image between the two images to the color difference signal, blood vessels in the surface layer of the mucous membrane are extracted, and an image in which the extracted blood vessels are emphasized can be created.
また、例えば、長波長側の照明光として、中心波長530nmの緑色狭帯域光と、中心波長610nmの赤色狭帯域光との二種類の波長帯域の照明光を使用する場合は、粘膜下のより深い層に在る血管を抽出することができ、抽出された血管を強調した画像を作成することができる。 In addition, for example, when illumination light of two types of wavelength bands, that is, a green narrowband light having a center wavelength of 530 nm and a red narrowband light having a center wavelength of 610 nm, is used as illumination light on the long wavelength side, A blood vessel in a deep layer can be extracted, and an image in which the extracted blood vessel is emphasized can be created.
特殊観察モードで使用する二種類の照明光は、観察対象の散乱係数が互いに異なり、かつ、ヘモグロビンの吸光係数がほぼ等しい波長帯域の光であることが望ましい。このような条件を満たす二種類の照明光を用いることにより、粘膜下の特定深さの血管を特に鮮明に抽出することができる。 The two types of illumination light used in the special observation mode are desirably light in a wavelength band in which the scattering coefficients of the observation target are different from each other and the absorption coefficient of hemoglobin is substantially equal. By using two types of illumination light satisfying such conditions, a blood vessel of a specific depth below the mucous membrane can be extracted particularly clearly.
「観察対象の散乱係数が互いに異なり、かつ、ヘモグロビンの吸光係数がほぼ等しい」という条件は、観察可能な血管の粘膜下の深さ(深達度)がそれぞれ異なり、かつ、粘膜下での深さが異なる血管が概ね同程度のコントラストに観察可能である二つの波長帯域の光を選択して用いるという条件を意味している。 The conditions that “the scattering coefficients of observation objects are different from each other and the absorption coefficient of hemoglobin is almost equal” are different in the submucosal depth (depth of penetration) of the observable blood vessels, and the submucosal depth. This means that light of two wavelength bands that can be observed with blood vessels of different levels can be observed with substantially the same contrast is selected and used.
なお、本実施形態で用いる中心波長405nmの第1狭帯域光と中心波長445nmの第2狭帯域光は、図6に示すように、ヘモグロビンの吸光係数(酸化ヘモグロビンの吸光係数:還元ヘモグロビンの吸光係数=3:7)が概ね同程度である。中心波長405nmの第1狭帯域光と中心波長445nmの第2狭帯域光の組み合わせは、血管の抽出にとって好ましい組み合わせの一例である。 As shown in FIG. 6, the first narrowband light having the center wavelength of 405 nm and the second narrowband light having the center wavelength of 445 nm used in this embodiment are shown in FIG. The coefficient = 3: 7) is approximately the same. A combination of the first narrowband light having a center wavelength of 405 nm and the second narrowband light having a center wavelength of 445 nm is an example of a preferable combination for blood vessel extraction.
図7は参照光補正部64の機能を示すブロック図である。参照光補正部64は、観察距離に応じた目標周波数特性を保持する記憶部64aと、記憶部64aに保持された目標周波数特性に応じて参照信号に含まれる高周波成分を低減する周波数処理部64bと、参照信号値のばらつきを補正する参照信号補正部64cと、補正後の参照信号に基づいて第1の画像信号及び第2の画像信号のうちの輝度信号を局所的に(画素毎に又は撮像領域毎に)補正する輝度補正部64dとを備える。なお後述するように、参照光補正部64には観察距離と目標周波数特性との関係(図8参照)が保持されている。
FIG. 7 is a block diagram illustrating functions of the reference
図9は特殊観察画像処理部67の機能を示すブロック図である。特殊観察画像処理部67は、演算画像信号生成部76(差分算出部)と、ローパスフィルタ(LPF;low pass filter)処理部77と、画像生成部78(色差信号生成部、カラー画像生成部)とを備える。
FIG. 9 is a block diagram illustrating functions of the special observation
演算画像信号生成部76は、参照信号による輝度補正が施された第1の画像信号と第2の画像信号とを用いて演算をし、演算画像信号を生成する。具体的には、第1の画像信号のうちの第1の輝度信号と、第2の画像信号のうちの第2の輝度信号と、の差又は比を算出する。本例の演算画像信号生成部76は、第1の輝度信号及び第2の輝度信号のそれぞれを対数変換し、対数変換後の第1の輝度信号と第2の輝度信号との差、より具体的には第2の輝度信号から第1の輝度信号を減算した差分画像(差分信号)である演算画像信号ΔBを生成する。対数変換は「Log変換」とも呼ばれる。 The calculation image signal generation unit 76 performs calculation using the first image signal and the second image signal that have been subjected to luminance correction by the reference signal, and generates a calculation image signal. Specifically, the difference or ratio between the first luminance signal in the first image signal and the second luminance signal in the second image signal is calculated. The arithmetic image signal generation unit 76 of this example logarithmically converts each of the first luminance signal and the second luminance signal, and more specifically, the difference between the first luminance signal and the second luminance signal after logarithmic conversion, more specifically. Specifically, an arithmetic image signal ΔB that is a difference image (difference signal) obtained by subtracting the first luminance signal from the second luminance signal is generated. Logarithmic transformation is also referred to as “Log transformation”.
第1の輝度信号及び第2の輝度信号は、各画素が受光量に比例する画素値を有するが、対数変換をすると、濃度に比例する画素値を有することになるので、各画像信号を得たときの照明光の照度によらず、安定した演算結果を得ることができる。本実施形態では、特殊観察モードで照明光として用いる第1狭帯域光と第2狭帯域光の照度には実質的な差がないとし、上述のように第1の輝度信号と第2の輝度信号との差によって演算画像信号ΔBを生成する。 In the first luminance signal and the second luminance signal, each pixel has a pixel value proportional to the amount of received light. However, when logarithmic conversion is performed, each pixel signal has a pixel value proportional to the density. Stable calculation results can be obtained regardless of the illumination intensity of the illumination light. In the present embodiment, it is assumed that there is no substantial difference in illuminance between the first narrowband light and the second narrowband light used as illumination light in the special observation mode, and the first luminance signal and the second luminance as described above. An arithmetic image signal ΔB is generated based on the difference from the signal.
なお、第1の輝度信号と第2の輝度信号のそれぞれの信号を対数変換せずに、第1の輝度信号と第2の輝度信号をそのまま用いる場合には、第1の輝度信号と第2の輝度信号の比を画素毎に演算することにより、演算画像信号を生成してもよい。 When the first luminance signal and the second luminance signal are used as they are without logarithmically converting the first luminance signal and the second luminance signal, the first luminance signal and the second luminance signal are used. The calculated image signal may be generated by calculating the ratio of the luminance signals for each pixel.
図10は血管の深さと血管のコントラストの関係を模式的に表すグラフである。図10に示すように、照明光として紫色光Vと青色光Bの二種類を用いると、深さ範囲AS及び深さ範囲ADの全範囲の血管、すなわち、概ね表層に在る血管(表層血管)を観察可能である。しかしながら、紫色光Vは青色光Bと比較して波長が短いため、観察対象への深達度が小さく、青色光Bに対して相対的に粘膜下の浅い位置の深さ範囲ASに在る血管しか写し出せない代わりに、浅い位置の深さ範囲ASに在る血管のコントラストは青色光Bを用いる場合よりも大きい。「血管のコントラスト」とは血管からの反射光量に対する周辺の粘膜からの反射光量の比を意味する。血管のコントラストは、血管の輝度YVと粘膜の輝度YMとを用いて、例えば「YV/YM」又は「(YV−YM)/(YV+YM)」で算出することができる。 FIG. 10 is a graph schematically showing the relationship between the blood vessel depth and the blood vessel contrast. As shown in FIG. 10, when two types of violet light V and blue light B are used as illumination light, blood vessels in the entire range of the depth range AS and the depth range AD , that is, blood vessels that are generally in the surface layer ( The superficial blood vessels) can be observed. However, violet light V is shorter wavelength as compared to the blue light B, small penetration depth into the observation target, standing in the depth range A S of shallow position of under relatively mucosa to blue light B instead of having Utsushidase only that vascular contrast of blood vessels located in the depth range a S of shallow position is larger than the case of using the blue light B. “Contrast of blood vessel” means the ratio of the amount of light reflected from the surrounding mucous membrane to the amount of light reflected from the blood vessel. The contrast of the blood vessel can be calculated by using, for example, “YV / YM” or “(YV−YM) / (YV + YM)” using the blood vessel luminance YV and the mucosal luminance YM.
一方、青色光Bは紫色光Vと比較して波長が長いため、観察対象への深達度が深く、紫色光Vに対して相対的に粘膜下の深い位置の深さ範囲ADに在る血管まで写し出せる代わりに、浅い位置の深さ範囲ASに在る血管のコントラストは紫色光Vを用いる場合よりも小さい。 On the other hand, since the wavelength of the blue light B is longer than that of the purple light V, the blue light B has a deep depth to the object to be observed, and is present in the depth range AD at a deep position below the mucosa relative to the purple light V. that instead of Utsushidaseru up vessel, the contrast of the blood vessels located in the depth range a S of shallow position is smaller than the case of using a violet light V.
このため、青色光Bに対応する第2の輝度信号から紫色光Vに対応する第1の輝度信号を減算すれば、特に粘膜下の浅い位置の深さ範囲ASに在る極表層血管を表す画素の画素値は強調されて、大きい値(白色)になる。逆に、極表層血管よりも深い位置の深さ範囲ADに在る血管を表す画素の画素値は小さい値(黒色)になる。演算画像信号ΔBを算出することは、粘膜下の特定深さに在る血管を抽出することに対応する。 Therefore, the first is subtracted the luminance signal, electrode surface blood vessels of particular depth range A S of shallow position of submucosal corresponding to violet light V from the second luminance signal corresponding to the blue light B The pixel value of the pixel to be expressed is emphasized and becomes a large value (white). Conversely, the pixel value of the pixel representing the blood vessel in the depth range AD at a position deeper than the extreme surface blood vessel is a small value (black). Calculation of the calculated image signal ΔB corresponds to extracting a blood vessel at a specific depth below the mucous membrane.
ローパスフィルタ処理部77は、演算画像信号生成部76が生成した演算画像信号ΔBにローパスフィルタを施すことにより低解像化の処理を行う。ローパスフィルタ処理部77が演算画像信号ΔBに施すフィルタ処理の強度は、ローパスフィルタのカットオフ周波数で定まる。ローパスフィルタのカットオフ周波数は予め設定され、少なくとも元の演算画像信号ΔBの鮮鋭度よりは鮮鋭度を低下させる。ローパスフィルタ処理部77のローパスフィルタ処理によって得られる演算画像信号は、元の演算画像信号よりもぼけた状態の画像になる。
The low-pass
画像生成部78は、特殊観察画像処理部67が受信する第1の輝度信号又は第2の輝度信号のいずれかと、ローパスフィルタ処理された演算画像信号ΔBとを用いて、複数の出力チャンネルを有する画像を生成する。より具体的には、画像生成部78は、輝度チャンネルYと色差に関する二つの色差チャンネルCb,Crとを有する画像を生成する。輝度チャンネルYは第1チャンネルに相当し、二つの色差チャンネルCb,Crはそれぞれ第2チャンネル及び第3チャンネルに相当する。画像生成部78は、第1の輝度信号又は第2の輝度信号のいずれか一方を輝度チャンネルYに割り当て、ローパスフィルタ処理された演算画像信号ΔBを二つの色差チャンネルCb,Crに割り当てることにより、特定深さの血管のパターンを色で強調した画像を生成する。こうして生成されたYCC画像(カラー画像信号)又はこのYCC画像を色変換処理して得られるRGB画像(カラー画像信号)を「血管強調画像」という。「YCC画像」とは輝度信号であるY信号と、色差信号であるCr信号及びCb信号によって表されるカラー画像を意味する。
The
図11は特定深さの血管強調画像を生成する際の信号チャンネルの割り当ての例を模式的に示した説明図である。図11におけるB1は第1の輝度信号を表している。本実施形態の場合、第1の輝度信号と第2の輝度信号とのうち、相対的に短波長帯域の狭帯域光(紫色光V)に対応した第1の輝度信号を輝度チャンネルYに割り当てる。つまり、相対的に極表層血管のコントラストが高い第1の輝度信号を輝度チャンネルYに割り当てる。そして、色差チャンネルCb,Crには演算画像信号ΔBを割り当てる。演算画像信号ΔBを色差チャンネルCb,Crに割り当てる際には、それぞれ係数αと係数βを乗じる。これは、表層血管等を強調観察する内視鏡システムが表示する画像と色味を揃えるためである。輝度チャンネルYに第1の輝度信号を割り当てるのは、表層血管の中から極表層血管を選り分けて強調するためである。 FIG. 11 is an explanatory diagram schematically showing an example of signal channel assignment when generating a blood vessel emphasized image of a specific depth. B1 in FIG. 11 represents the first luminance signal. In the case of the present embodiment, the first luminance signal corresponding to the narrow band light (purple light V) having a relatively short wavelength band is assigned to the luminance channel Y among the first luminance signal and the second luminance signal. . That is, the first luminance signal having a relatively high contrast of the extreme surface blood vessels is assigned to the luminance channel Y. The calculated image signal ΔB is assigned to the color difference channels Cb and Cr. When assigning the calculated image signal ΔB to the color difference channels Cb and Cr, they are multiplied by a coefficient α and a coefficient β, respectively. This is in order to align the color with the image displayed by the endoscope system that emphasizes and observes the surface blood vessels. The reason why the first luminance signal is assigned to the luminance channel Y is to select and emphasize the polar surface blood vessels from the surface blood vessels.
表層血管を強調観察する観察モードを有する内視鏡システムにおいて、表層血管強調画像を生成する方法の一つとして、撮像画像のB画像信号とG画像信号を利用する次のような方法がある。すなわち、表層血管観察モードの場合に、狭帯域の青色光を照射して観察対象を撮像してB画像信号を取得し、かつ、狭帯域の緑色光を照射して観察対象を撮像してG画像信号を取得する。そして、B画像信号を表示用の画像のBチャンネルとGチャンネルに割り当て、G画像信号をRチャンネルに割り当てることにより、粘膜下の深い位置に在る中深層血管を緑色系(シアン系)の色にし、粘膜下の浅い位置に在る表層血管を赤色系(マゼンタ系)の色にして強調表示する。 In an endoscope system having an observation mode for emphasizing observation of a superficial blood vessel, one of the methods for generating a superficial blood vessel emphasized image is the following method using a B image signal and a G image signal of a captured image. That is, in the superficial blood vessel observation mode, the image of the observation object is obtained by irradiating the narrow band blue light to acquire the B image signal, and the observation object is imaged by irradiating the narrow band green light. Get the image signal. Then, the B image signal is assigned to the B channel and the G channel of the display image, and the G image signal is assigned to the R channel, so that the mid-deep blood vessels located deep in the submucosa are green (cyan) color. Then, the superficial blood vessels in the shallow position under the mucous membrane are highlighted in red (magenta) color.
国際電気通信連合の規格であるITU−R.601では、RGB各画像信号と輝度チャンネルY及び色差チャンネルCb及びCrの関係は、下記の式(1)、式(2)、及び式(3)で表される。なお、ITUは「International Telecommunication Union」の略語表記である。 The ITU-R. In 601, the relationship between the RGB image signals, the luminance channel Y, and the color difference channels Cb and Cr is expressed by the following equations (1), (2), and (3). ITU is an abbreviation for “International Telecommunication Union”.
Y=0.299R+0.587G+0.114B …(1)
Cb=−0.169R−0.331G+0.5B …(2)
Cr=0.5R−0.419G−0.081B …(3)
そして、色差チャンネルCb,Crの式(2)及び式(3)において、RにGを代入し、GにBを代入すると、式(4)及び式(5)に示すように色差チャンネルCb,Crを(G−B)で表すことができる。
Y = 0.299R + 0.587G + 0.114B (1)
Cb = −0.169R−0.331G + 0.5B (2)
Cr = 0.5R−0.419G−0.081B (3)
In the equations (2) and (3) of the color difference channels Cb and Cr, when G is substituted for R and B is substituted for G, the color difference channels Cb, Cb, Cr can be represented by (GB).
Cb=−0.169G+0.169B=−0.169(G−B)…(4)
Cr=0.5G−0.5B=0.5(G−B) …(5)
上述の方法に対して、本実施形態における特殊観察モードでは、紫色の波長帯域である第1狭帯域光を用いて第1の輝度信号を取得し、青色の波長帯域である第2狭帯域光を用いて第2の輝度信号を取得して極表層血管を抽出及び表示するため、式(4)及び式(5)の(G−B)信号に代えて、演算画像信号ΔBを用いる。すなわち、係数α=−0.169を乗じて演算画像信号ΔBを色差チャンネルCbの信号(色差信号)に割り当て、係数β=0.5を乗じて演算画像信号ΔBを色差チャンネルCrの信号(色差信号)に割り当てる。
Cb = −0.169G + 0.169B = −0.169 (GB) (4)
Cr = 0.5G−0.5B = 0.5 (GB) (5)
In contrast to the above-described method, in the special observation mode in the present embodiment, the first luminance signal is acquired using the first narrowband light having the purple wavelength band, and the second narrowband light having the blue wavelength band is obtained. In order to extract and display the polar surface blood vessel by acquiring the second luminance signal using the calculation signal, the calculation image signal ΔB is used instead of the (GB) signal in the equations (4) and (5). That is, the coefficient α = −0.169 is multiplied to assign the calculated image signal ΔB to the color difference channel Cb signal (color difference signal), and the coefficient β = 0.5 is multiplied to calculate the calculated image signal ΔB as the color difference channel Cr signal (color difference). Signal).
これにより、本実施形態の内視鏡システム10の特殊観察モードにおいて、上述の表層血管観察モードによって得られる表層血管強調画像と概ね同配色の血管強調画像を得ることができる。ただし、本実施形態において、極表層血管と、比較的深い位置に在る表層血管との色の違いを強調するために、設定等に応じて、係数α及び係数βにさらに係数を乗じる場合がある。
Thereby, in the special observation mode of the
なお、輝度チャンネルY及び色差チャンネルCb,CrからRGBの血管強調画像を生成するには、ITU−R.601の逆変換にしたがって、下記の式(6)、式(7)、及び式(8)によって行う。 In order to generate an RGB blood vessel enhanced image from the luminance channel Y and the color difference channels Cb and Cr, ITU-R. According to the inverse transformation of 601, the following equation (6), equation (7), and equation (8) are used.
R=Y+1.402Cr …(6)
G=Y−0.344Cb−0.714Cr …(7)
B=Y+1.772Cb …(8)
こうして特殊観察画像処理部67で生成された特定深さの血管強調画像は、映像信号生成部68に入力される。映像信号生成部68は特定深さの血管強調画像をモニタ18で表示可能な画像として表示するための映像信号に変換する。この映像信号を用いて、モニタ18に特定深さの血管強調画像が表示される。
R = Y + 1.402Cr (6)
G = Y−0.344Cb−0.714Cr (7)
B = Y + 1.772 Cb (8)
The blood vessel emphasized image having a specific depth generated by the special observation
[特殊観察モードにおける画像処理の概要]
図12は特殊観察モードにおける画像処理(画像生成方法)の手順を示すフローチャートである。この処理は、プロセッサ装置16が有する図示せぬROM等の非一時的記録媒体に記録されたプログラムに従って進められる。特殊観察モードが選択されると、図12に示す画像処理がプロセッサ装置16により実行される。
[Outline of image processing in special observation mode]
FIG. 12 is a flowchart showing the procedure of image processing (image generation method) in the special observation mode. This process proceeds according to a program recorded in a non-temporary recording medium such as a ROM (not shown) included in the
ステップS110において、光源20は第1波長帯域(第1の波長)の狭帯域光である照明光(第1の照明光)と、第3波長帯域(第3の波長)の狭帯域光である照明光(第3の照明光、参照光)と、を同時に発生する(第1の発光制御)。光源20から発せられた第1の照明光及び第3の照明光は観察対象に照射される。
In step S110, the
第1波長帯域は例えば中心波長が405nmの紫色波長帯域である。図13に示すように、この紫色波長帯域はB画素の分光感度SBがG画素の分光感度SG及びR画素の分光感度SRよりも高くなる波長帯域(約490nm未満)における波長帯域である。 The first wavelength band is, for example, a purple wavelength band having a center wavelength of 405 nm. As shown in FIG. 13, the purple wavelength band is a wavelength band in a wavelength band (less than about 490 nm) in which the spectral sensitivity SB of the B pixel is higher than the spectral sensitivity SG of the G pixel and the spectral sensitivity SR of the R pixel.
一方、第3波長帯域はG画素及びR画素のうちの少なくとも一方の画素の分光感度がB画素の分光感度よりも高くなる波長帯域内(約490nm以上)における波長帯域であり、例えば600nmを中心波長とする。図13に示すように、600nm付近の波長において、G画素の分光感度とR画素の分光感度の総和SSは最大になる。600nmを中心波長とする第3の照明光は、R−LED23dの発光及び図示せぬ光学フィルタの変更により発生させることができる。
On the other hand, the third wavelength band is a wavelength band within a wavelength band (about 490 nm or more) in which the spectral sensitivity of at least one of the G pixel and the R pixel is higher than the spectral sensitivity of the B pixel. The wavelength. As shown in FIG. 13, the sum SS of the spectral sensitivity of the G pixel and the spectral sensitivity of the R pixel is maximized at a wavelength near 600 nm. The third illumination light having a center wavelength of 600 nm can be generated by light emission of the R-
なお、第3の照明光は参照光として利用するので、第1の照明光の発光光量よりも発光光量を少なくすることが好ましい。具体的には第3の照明光の発光光量は第1の照明光の発光光量の40%以下にすることが好ましく、10%以上20%以下にすることがさらに好ましい。したがって、第3の照明光の発光光量は例えば第1の照明光の発光光量の15%とすることができるが、この値に限定されるものではない。 In addition, since the 3rd illumination light is utilized as reference light, it is preferable to make light emission light quantity smaller than the light emission light quantity of 1st illumination light. Specifically, the light emission amount of the third illumination light is preferably 40% or less of the light emission amount of the first illumination light, and more preferably 10% or more and 20% or less. Therefore, the emitted light amount of the third illumination light can be set to, for example, 15% of the emitted light amount of the first illumination light, but is not limited to this value.
このように、G画素の分光感度とR画素の分光感度の総和が最大になる波長帯域を第3波長帯域とし、さらに第3の照明光(参照光)の発光光量を第1の照明光及び第2の照明光(後述)の発光光量よりも少なくすることで、参照光による画質の低下(長波長の光が加わることによる差分画像のコントラスト低下、表層血管の分解能の低下)を防止しつつ、参照光を用いた補正の効果(局所的な光量ムラの除去)を得ることができる。なお、「分光感度の総和が最大になる波長」とは、分光感度の総和が数値上最大値となる波長だけでなく、分光感度の総和が、輝度ムラ補正の効果に実質的な影響がない範囲で数値上の最大値からずれた波長であってもよい。 Thus, the wavelength band in which the sum of the spectral sensitivity of the G pixel and the spectral sensitivity of the R pixel is maximized is the third wavelength band, and the emitted light quantity of the third illumination light (reference light) is set to the first illumination light and By reducing the amount of light emitted from the second illumination light (described later), it is possible to prevent deterioration in image quality due to reference light (decrease in contrast of difference images due to addition of long-wavelength light, reduction in resolution of surface blood vessels). The effect of correction using the reference light (removal of uneven local light quantity) can be obtained. The “wavelength at which the sum of spectral sensitivities is maximum” means not only the wavelength at which the sum of spectral sensitivities is numerically maximum, but the sum of spectral sensitivities has no substantial effect on the effect of correcting luminance unevenness. The wavelength may deviate from the maximum value in the range.
撮像センサ48は、第1の照明光及び第3の照明光が照射された観察対象を撮像して第1の照明光及び第3の照明光に対応する画像信号を出力し(ステップS120)、画像信号取得部53は、撮像センサ48から第1の照明光及び第3の照明光に対応する画像信号を取得する(ステップS130)。ステップS130で取得される画像信号は、既に説明した第1の画像信号に相当する。第1の画像信号のうちB画素(中心波長405nmの第1波長帯域において最も分光感度が高い画素)に対応する色の画像信号を輝度信号(第1の輝度信号)とし、第3波長帯域に感度を有する画素であって第1の輝度信号を取得したB画素とは異なる画素であるG画素及びR画素(参照信号取得画素)の各色の画像信号を加算した画像信号を参照信号(第1の参照信号)とする。
The
ステップS130により得られる撮像画像の一例を図14に示す。図14は中心波長405nmの第1狭帯域光(第1の照明光)及び中心波長600nmの第3の照明光(参照光)を用いて撮像された撮像画像の例である。図14では極表層血管112を含む表層の血管が鮮明に写し出されている。なお図14中、領域P1は周囲よりも輝度が低い(暗い)領域を示している。
An example of the captured image obtained in step S130 is shown in FIG. FIG. 14 is an example of a captured image captured using the first narrowband light (first illumination light) having a center wavelength of 405 nm and the third illumination light (reference light) having a center wavelength of 600 nm. In FIG. 14, the blood vessels in the surface layer including the extreme
図12のステップS150及びステップS250(後述)において、明るさ補正処理部63は、取得した第1の画像信号について光量補正を行う。ステップS150及びステップS250の光量補正は、輝度信号の補正前に、第1の画像信号の画像全体の平均輝度と第2の画像信号の平均輝度とを合わせる処理である。例えば、明るさ補正処理部63は、特殊観察モードに使用される狭帯域光の照射光量比を用いて、第1の画像信号の平均輝度と第2の画像信号の平均輝度を一致させるゲイン補正を行う。また例えば、明るさ補正処理部63は、各画像信号の全画素の画素値の平均値又は特定の画素領域の画素値の平均値を算出することにより第1,第2の画像信号が表す観察対象の画像の明るさ(平均輝度)を算出し、第1,第2の画像信号が表す観察対象の画像の明るさを一致させるゲインを算出し、算出したゲインを用いて第1の画像信号の輝度信号及び第2の画像信号の輝度信号の少なくとも一方を補正する。
In step S150 and step S250 (described later) in FIG. 12, the brightness
ステップS150及びステップS250では、第1の輝度信号と第2の輝度信号の両方を補正してもよいし、いずれか一方のみを補正してもよい。第2の輝度信号のみを補正する場合は、ステップS150の処理は行わずステップS250の処理のみ行えばよい。なお光量補正は「明るさ補正処理」と同義である。 In step S150 and step S250, both the first luminance signal and the second luminance signal may be corrected, or only one of them may be corrected. When correcting only the second luminance signal, only the process of step S250 may be performed without performing the process of step S150. The light amount correction is synonymous with “brightness correction processing”.
また、ステップS130の後、光源20は第2波長帯域(第2の波長)の狭帯域光である照明光(第2の照明光)と、第3波長帯域の狭帯域光である照明光(第3の照明光)と、を同時に発生する(ステップS210:第2の発光制御)。光源20から発せられた第2の照明光及び第3の照明光は観察対象に照射される。なお第2の発光制御において、第2の照明光の発光光量は第1の発光制御における第1の照明光の発光光量と同じでなくてもよい。例えば、第2の照明光の発光光量は第1の照明光の発光光量より少なくすることができる。
Further, after step S130, the
第2波長帯域は例えば中心波長が445nmの青色波長帯域であり、第1波長帯域と同様に、B画素の分光感度がG画素の分光感度及びR画素の分光感度よりも高くなる波長帯域(約490nm未満)における波長帯域である。第3波長帯域は第1の発光制御と同様であり、R−LED23dの発光及び図示せぬ光学フィルタの変更により600nmを中心波長とする狭帯域光を発光させる。なお第3の照明光の発光光量は、第1の発光制御と同様に、第2の照明光の発光光量の15%とすることができるが、第3の照明光の発光光量はこの値に限定されるものではない。
The second wavelength band is, for example, a blue wavelength band having a central wavelength of 445 nm. Similarly to the first wavelength band, the wavelength band in which the spectral sensitivity of the B pixel is higher than the spectral sensitivity of the G pixel and the spectral sensitivity of the R pixel (about It is a wavelength band in less than 490 nm. The third wavelength band is the same as in the first light emission control, and narrow band light having a center wavelength of 600 nm is emitted by the light emission of the R-
なお、上述の例では第2の発光制御における第3の照明光の波長帯域及び発光光量が第1の発光制御における第3の照明光の波長帯域及び発光光量と同じである場合について説明しているが、本発明において第3の照明光の波長帯域及び発光光量は第1,第2の発光制御において全く同じでなくてもよい。内視鏡では通常、観察距離に応じて自動露出補正が行われること、及び受光センサの分光感度と参照光の波長分布をたたみ込んだものが参照信号値となることから、第1,第2の発光制御において受光センサの分光感度と参照光の波長分布とを畳み込んだ参照信号値の相違が10%以内であることが好ましい。 In the above example, the case where the wavelength band and the amount of emitted light of the third illumination light in the second emission control are the same as the wavelength band and the amount of emitted light of the third illumination light in the first emission control will be described. However, in the present invention, the wavelength band and the amount of emitted light of the third illumination light may not be exactly the same in the first and second light emission control. In an endoscope, automatic exposure correction is usually performed according to the observation distance, and the reference signal value is obtained by convolving the spectral sensitivity of the light receiving sensor and the wavelength distribution of the reference light. In the light emission control, it is preferable that the difference between the reference signal values obtained by convolving the spectral sensitivity of the light receiving sensor and the wavelength distribution of the reference light is within 10%.
撮像センサ48は、第2の照明光及び第3の照明光が照射された観察対象を撮像して第2の照明光及び第3の照明光に対応する画像信号を出力し(ステップS220)、画像信号取得部53は、第2の照明光及び第3の照明光に対応する画像信号を撮像センサ48から取得する(ステップS230)。ステップS230で取得される画像信号は、既に説明した第2の画像信号に相当する。第2の画像信号のうちB画素(中心波長445nmの第2波長帯域において最も分光感度が高い画素)に対応する色の画像信号を輝度信号(第2の輝度信号)とし、第3波長帯域に感度を有する画素であって第2の輝度信号を取得したB画素とは異なる画素であるG画素及びR画素(参照信号取得画素)の各色の画像信号を加算した画像信号を参照信号(第2の参照信号)とする。
The
ステップS240において、位置合わせ処理部62は、ステップS130にて取得された第1の画像信号とステップS230にて取得された第2の画像信号の位置合わせ処理を行う。本例では第2の画像信号の画像位置を補正する処理を行う。ステップS240により得られる撮像画像の一例を図15に示す。図15は中心波長445nmの第2狭帯域光(第2の照明光)及び中心波長600nmの第3の照明光(参照光)を用いて撮像された撮像画像の例である。図15では図示の制約上十分に表現されていないが、図15に示した撮像画像は図14の撮像画像と比較して極表層血管112のコントラストが著しく低下している。また、極表層血管112よりも深い位置に在る表層血管114は、図14と比較してコントラストの低下が緩やかである。なお図15中、領域P2は周囲よりも輝度が高い(明るい)領域を示している。
In step S240, the
図12のステップS250において、明るさ補正処理部63は、取得した第2の画像信号について光量補正を行う。ステップS250における光量補正は、ステップS150における光量補正と同様に、第1の輝度信号の平均輝度と第2の輝度信号の平均輝度とを合わせる処理であり、第1の輝度信号と第2の輝度信号の両方を補正してもよいし、いずれか一方のみを補正してもよい。第1の輝度信号のみを補正する場合は、ステップS250の処理は行わずに、上述したステップS150の処理のみ行えばよい。
In step S250 of FIG. 12, the brightness
ステップS152において、周波数処理部64bは参照信号(第1,第2の参照信号)に含まれる高周波成分を低減するLPF(Low Pass Filter)処理(ローパスフィルタ処理)を行う。これは、受光センサに副感度があるため、参照信号に表層血管の画像信号が映り込み、このまま参照信号を用いて光量補正をすると表層血管のコントラストが低下してしまうためである。なお、受光センサの副感度の影響(参照信号に表層血管の画像信号が映り込む度合い)は被検体までの観察距離に応じて異なるため、目標とする周波数特性を観察距離毎に記憶部64aに記憶しておき、周波数処理部64bは撮像時の観察距離に基づいて記憶部64aから目標周波数特性を取得して、参照信号の周波数特性が目標周波数特性になるようにローパスフィルタ処理を行う。例えば、目標周波数特性としてローパスフィルタの特性を記憶しておき、これを用いるようにする。このようにして、周波数処理部64bは、図8に示すように観察距離が近いほどローパスフィルタの強度が高くなるローパスフィルタ処理を行う。
In step S152, the
なお、上述したステップS152のローパスフィルタ処理を行わずに、副感度の影響を含む参照信号の高周波成分を抽出しておき、差分画像にこの高周波成分を加算して差分画像のコントラストを保つようにしてもよい。 Note that the high-frequency component of the reference signal including the effect of the sub-sensitivity is extracted without performing the above-described low-pass filter processing in step S152, and this high-frequency component is added to the difference image to maintain the contrast of the difference image. May be.
輝度補正部64dは、第1,第2の画像信号間の参照信号(第1の参照信号、第2の参照信号)のばらつきを補正する(ステップS154)。これは、各フレーム(第1,第2の発光制御)で同じ光量で参照光を発光させても、参照光成分から得られる参照信号は波長帯域に依存した受光センサの副感度の相違(図13参照)に起因してばらつくため、各フレームの短波長側の照明光(第1,第2の照明光)の設定光量と分光感度とから参照信号(第1,第2の参照信号)のばらつきを補正するものである。なお、上述した補正に代えて、または上述した補正に加えて、画像信号における参照信号のばらつきを考慮して第1,第2発光制御時(ステップS110,S210)の参照光の発光光量を設定してもよい。
The
輝度補正部64dは、ステップS154で補正した後の参照信号に基づいて、第1の輝度信号及び第2の輝度信号を局所的に(画素毎に又は撮像領域毎に)補正する(ステップS156)。ステップS156における処理は、各画素又は各画像領域における参照信号の比に基づいて第1の輝度信号及び第2の輝度信号を補正する処理である。例えば、処理対象画素において第1の参照信号と第2の参照信号との比が1.0対0.9である(第1の参照信号:第2の参照信号=1.0:0.9)とすると、第2の輝度信号に(1.0/0.9)を乗算して補正する。なおこの例では第2の輝度信号のみ補正しているが、第1の輝度信号のみを補正してもよいし、第1,第2の輝度信号の双方を補正してもよい。
The
本実施形態のように波長帯域の異なる複数の狭帯域光を切り換えて順次撮影を行ういわゆる「マルチフレーム撮影」の場合、フレーム毎の撮影タイミングが異なるため、観察距離や角度が変化し、各フレームでの画像の明るさ(輝度)の違いが一律ではなく場所ごとに変化している。このためステップS150,S250における平均輝度の補正だけでは輝度を合わせきれない場合があるが、上述のように参照信号の比に基づいて輝度信号を補正することで、場所毎の輝度ムラを除去した画像を得ることができる(図14〜19参照)。 In the case of so-called “multi-frame shooting” in which a plurality of narrow-band lights having different wavelength bands are switched sequentially as in this embodiment, since the shooting timing for each frame is different, the observation distance and angle change, and each frame The difference in image brightness (luminance) is not uniform, but changes from place to place. For this reason, the luminance may not be adjusted only by correcting the average luminance in steps S150 and S250, but luminance unevenness at each location is removed by correcting the luminance signal based on the ratio of the reference signals as described above. Images can be obtained (see FIGS. 14-19).
ステップS160において、演算画像信号生成部76は補正後の第1の輝度信号に対数変換を施す。また、ステップS260において、演算画像信号生成部76は補正後の第2の輝度信号に対数変換を施す。 In step S160, the arithmetic image signal generation unit 76 performs logarithmic conversion on the corrected first luminance signal. In step S260, the arithmetic image signal generation unit 76 performs logarithmic conversion on the corrected second luminance signal.
ステップS280において、演算画像信号生成部76は、ステップS260にて対数変換された第2の画像信号とステップS160にて対数変換された第1の画像信号との差分画像を生成する差分処理を行う。ステップS280の差分処理では、第2の輝度信号から第1の輝度信号を減算する演算によって差分画像を表す演算画像信号が生成される。ステップS280にて生成される演算画像信号は、既に説明した演算画像信号ΔBに相当する。 In step S280, the calculation image signal generation unit 76 performs difference processing for generating a difference image between the second image signal logarithmically converted in step S260 and the first image signal logarithmically converted in step S160. . In the difference processing in step S280, an operation image signal representing the difference image is generated by an operation of subtracting the first luminance signal from the second luminance signal. The calculation image signal generated in step S280 corresponds to the calculation image signal ΔB already described.
ステップS290において、ローパスフィルタ処理部77は、ステップS280にて生成された演算画像信号にローパスフィルタ処理を施す。
In step S290, the low-pass
その後、ステップS300において、画像生成部78は、ステップS160にて対数変換された第1の輝度信号を輝度チャンネルYに割り当て、かつ、ステップS290にて低解像化された演算画像信号を色差チャンネルCr,Cbに割り当てることにより、被検体の構造である血管が色により強調された血管強調画像(YCC画像)を生成する。また、画像生成部78は、YCC画像からRGB画像に変換する色変換処理を行い、血管強調画像を表すRGB画像100を生成する。
Thereafter, in step S300, the
ステップS300により生成された血管強調画像はモニタ18に表示される。また、ステップS300により生成された血管強調画像はストレージ70に保存することができる。
The blood vessel emphasized image generated in step S300 is displayed on the
ステップS300を経て生成される出力画像の例を図16に示す。図16では図示の制約上十分に表現されていないが、出力画像として表層血管が強調されたカラー画像が得られる。 An example of an output image generated through step S300 is shown in FIG. In FIG. 16, a color image in which the surface blood vessels are emphasized is obtained as an output image although it is not sufficiently expressed due to the constraints shown.
このようにして生成された血管強調画像では、粘膜下の極表層に在る極表層血管がマゼンタ系の色に着色して表示され、極表層よりも深い位置の表層に在る表層血管がシアン系の色に着色して表される。したがって、血管強調画像では極表層血管と表層血管とを色で識別可能であり、特に極表層血管の観察が容易な画像としてモニタ18に表示される。モニタ18に表示される画像では、上述したように参照信号に基づいて輝度信号を補正するので、図14,15に示す領域P1,P2のような局所的な輝度ムラは除去されており、被検体の構造を容易に観察することができる。
In the blood vessel-enhanced image generated in this way, the extreme superficial blood vessels in the extreme superficial layer below the mucous membrane are displayed in magenta color, and the superficial blood vessels in the superficial layer deeper than the extreme superficial layer are cyan. It is expressed by coloring the system. Therefore, in the blood vessel-enhanced image, the extreme surface blood vessel and the superficial blood vessel can be distinguished by color, and are displayed on the
[具体的な画像例]
図17は第1の照明光として中心波長405nmの第1狭帯域光を用い、第3の照明光(参照光)として中心波長600nmの狭帯域光を用いて撮像された撮像画像の例である。図17は図12のステップS130で取得される第1の画像信号による画像例に相当する。図17に示した撮像画像を第1撮像画像110という。第1撮像画像110には、極表層血管112と表層血管114が写し出されている。先に説明した図14は図17の一部を拡大した画像に相当している。なお図17では、図14で示した領域P1の図示は省略している。
[Specific image example]
FIG. 17 is an example of a captured image captured using first narrowband light with a center wavelength of 405 nm as first illumination light and narrowband light with a center wavelength of 600 nm as third illumination light (reference light). . FIG. 17 corresponds to an image example based on the first image signal acquired in step S130 of FIG. The captured image illustrated in FIG. 17 is referred to as a first captured
図18は第2の照明光として中心波長445nmの第2狭帯域光を用い、第3の照明光(参照光)として中心波長600nmの狭帯域光を用いて撮像された撮像画像の例である。図18は図12のステップS230で取得される第2の画像信号による画像例に相当する。図18に示した撮像画像を第2撮像画像120という。第2撮像画像120は、第1撮像画像110と比較して、極表層血管112と表層血管114のコントラストが低下している。先に説明した図15は図18の一部を拡大した画像に相当している。なお図18では、図15で示した領域P2の図示は省略している。
FIG. 18 is an example of a captured image captured using second narrowband light with a center wavelength of 445 nm as second illumination light and narrowband light with a center wavelength of 600 nm as third illumination light (reference light). . FIG. 18 corresponds to an image example based on the second image signal acquired in step S230 of FIG. The captured image illustrated in FIG. 18 is referred to as a second captured
図19は第1撮像画像110と第2撮像画像120の差分による演算画像信号を用いて生成された血管強調画像の例である。先に説明した図16は図19の一部を拡大した画像に相当している。図19に示す血管強調画像では、被検体の構造としての血管を視覚により容易に観察することができる。
FIG. 19 is an example of a blood vessel emphasized image generated using a calculated image signal based on the difference between the first captured
以上、本発明の実施形態について説明したが、本発明は上述した実施形態に限定されず、本発明の趣旨を逸脱しない範囲で種々の変形が可能である。例えば、上述した実施形態では第1の発光制御で紫色光Vと赤色光R(参照光)を発光させて第1の画像信号を取得し第2の発光制御で青色光Bと赤色光R(参照光)を発光させて第2の画像信号を取得し、これら2つの画像信号により極表層〜表層に在る血管を強調した画像を生成しているが、第1の発光制御で青色光Bと赤色光R(参照光)を発光させて第1の画像信号を取得し第2の発光制御で緑色光Gと赤色光R(参照光)を発光させて第2の画像信号を取得して、これら2つの画像信号により中層に在る血管を強調した画像を生成してもよい。このような中層血管を強調した画像を生成する場合の処理は、上述した実施形態と同様に行うことができる。 As mentioned above, although embodiment of this invention was described, this invention is not limited to embodiment mentioned above, A various deformation | transformation is possible in the range which does not deviate from the meaning of this invention. For example, in the above-described embodiment, purple light V and red light R (reference light) are emitted by the first light emission control, the first image signal is acquired, and blue light B and red light R ( Reference light) is emitted to obtain a second image signal, and an image emphasizing blood vessels in the extreme surface layer to the surface layer is generated by these two image signals. Blue light B is generated by the first light emission control. And red light R (reference light) to obtain a first image signal, and second light emission control to emit green light G and red light R (reference light) to obtain a second image signal. Alternatively, an image in which a blood vessel in the middle layer is emphasized may be generated using these two image signals. The processing for generating an image in which such middle-layer blood vessels are emphasized can be performed in the same manner as in the above-described embodiment.
また、上述した実施形態では波長の異なる2つの狭帯域光を用いて2つの狭帯域画像を取得しているが、波長の異なる3つの狭帯域光を用いて3つの狭帯域画像を取得し、これら3つの狭帯域画像に基づいて所望の層に在る血管を強調表示できるようにしてもよい。例えば、第1の発光制御で紫色光Vと赤色光R(参照光)を発光させて第1の画像信号を取得し、第2の発光制御で青色光Bと赤色光R(参照光)を発光させて第2の画像信号を取得し、第3の発光制御で緑色光Gと赤色光R(参照光)を発光させて第3の画像信号を取得する。そして第1の画像信号及び第2の画像信号から極表層〜表層の血管を強調表示した画像を生成し、第2の画像信号及び第3の画像信号から中層の血管を強調表示した画像を生成することができる。このような血管強調画像の生成も、上述した実施形態と同様に行うことができる。 Further, in the above-described embodiment, two narrowband images are acquired using two narrowband lights having different wavelengths, but three narrowband images are acquired using three narrowband lights having different wavelengths, A blood vessel in a desired layer may be highlighted based on these three narrow-band images. For example, purple light V and red light R (reference light) are emitted by the first light emission control to acquire a first image signal, and blue light B and red light R (reference light) are obtained by the second light emission control. The second image signal is acquired by emitting light, and the third image signal is acquired by emitting green light G and red light R (reference light) by the third light emission control. Then, an image in which blood vessels in the extreme surface layer to the surface layer are highlighted is generated from the first image signal and the second image signal, and an image in which the blood vessels in the middle layer are highlighted from the second image signal and the third image signal is generated. can do. Such a blood vessel enhanced image can be generated in the same manner as in the above-described embodiment.
また、上述の実施形態ではR−LED23dの発光及び図示せぬ光学フィルタの変更により参照光(中心波長600nm)を発生させているが、G−LED23cの発光及び図示せぬ光学フィルタの変更により参照光を発生させてもよい。また、R−LED23d及びG−LED23cの両方を発光量を調整しつつ発光させ、これに合わせて図示せぬ光学フィルタを変更することで参照光を発光させてもよい。さらに、複数色のLEDの発光バランスを調整することで参照光を発光させてもよい。
In the above-described embodiment, the reference light (
10 内視鏡システム
12 内視鏡
12a 挿入部
12b 操作部
12c 湾曲部
12d 先端部
12e アングルノブ
13a モード切替スイッチ
13b ズーム操作部
13c 静止画像取得指示部
14 光源装置
16 プロセッサ装置
18 モニタ
19 コンソール
20 光源
22 光源制御部
23a V−LED
23b B−LED
23c G−LED
23d R−LED
30a 照明光学系
30b 撮像光学系
41 ライトガイド
45 照明レンズ
46 対物レンズ
47 ズームレンズ
48 撮像センサ
51 AFE回路
52 ADコンバータ
53 画像信号取得部
58 ノイズ低減部
59 メモリ
60 信号処理部
61 画像処理切替部
62 位置合わせ処理部
63 明るさ補正処理部
64 参照光補正部
64a 記憶部
64b 周波数処理部
64c 参照信号補正部
64d 輝度補正部
66 通常観察画像処理部
67 特殊観察画像処理部
68 映像信号生成部
70 ストレージ
72 画像処理装置
76 演算画像信号生成部
77 ローパスフィルタ処理部
78 画像生成部
100 RGB画像
110 第1撮像画像
112 極表層血管
114 表層血管
120 第2撮像画像
Ad 範囲
As 範囲
B 青色光
Cb 色差チャンネル
Cr 色差チャンネル
G 緑色光
P1 領域
P2 領域
R 赤色光
S110〜S300 画像生成方法の各ステップ
SB 分光感度
SG 分光感度
SR 分光感度
SS 総和
V 紫色光
Y 輝度チャンネル
YM 輝度
YV 輝度
ΔB 演算画像信号
α 係数
β 係数
DESCRIPTION OF
23b B-LED
23c G-LED
23d R-LED
30a Illumination
Claims (18)
それぞれ波長の異なる第1の波長、第2の波長及び第3の波長をピークとする第1の照明光、第2の照明光及び第3の照明光を発光する光源と、
前記撮像部による被検体の撮像時に、前記光源から前記第1の照明光と前記第3の照明光とを同時に発光させる第1の発光制御と、前記第2の照明光と前記第3の照明光とを同時に発光させる第2の発光制御とを行う光源制御部と、
前記光源制御部による前記第1の発光制御が行われるときに、前記撮像素子の第1の画素、第2の画素及び第3の画素のうちの、前記第1の波長に最も分光感度の高い画素から第1の輝度信号を取得し、かつ前記撮像素子の第1の画素、第2の画素及び第3の画素のうちの前記第3の波長に感度を有する画素であって、少なくとも前記第1の波長に最も分光感度の高い画素とは異なる画素から第1の参照信号を取得し、前記光源制御部による前記第2の発光制御が行われるときに、前記撮像素子の第1の画素、第2の画素及び第3の画素のうちの、前記第2の波長に最も分光感度の高い画素から第2の輝度信号を取得し、かつ前記撮像素子の第1の画素、第2の画素及び第3の画素のうちの前記第3の波長に感度を有する画素であって、少なくとも前記第2の波長に最も分光感度の高い画素とは異なる画素から第2の参照信号を取得する画像信号取得部と、
を備えた内視鏡システム。 An imaging unit including an objective lens and an imaging element having a first pixel, a second pixel, and a third pixel in which color filters corresponding to the three primary colors are arranged;
A light source that emits a first illumination light, a second illumination light, and a third illumination light, each having a peak at a first wavelength, a second wavelength, and a third wavelength, each having a different wavelength;
First light emission control for simultaneously emitting the first illumination light and the third illumination light from the light source, and the second illumination light and the third illumination when the subject is imaged by the imaging unit. A light source controller that performs second light emission control for simultaneously emitting light;
When the first light emission control is performed by the light source control unit, the spectral sensitivity is highest at the first wavelength among the first pixel, the second pixel, and the third pixel of the image sensor. A pixel that obtains a first luminance signal from the pixel and is sensitive to the third wavelength among the first pixel, the second pixel, and the third pixel of the imaging device, and at least the first pixel When a first reference signal is acquired from a pixel different from the pixel having the highest spectral sensitivity for one wavelength and the second light emission control is performed by the light source control unit, the first pixel of the image sensor, Of the second pixel and the third pixel, the second luminance signal is obtained from the pixel having the highest spectral sensitivity at the second wavelength, and the first pixel, the second pixel, and the second pixel of the image sensor Of the third pixels, the pixels having sensitivity to the third wavelength, Both the image signal acquisition unit that acquires the second reference signal from a different pixel from the high pixel most spectral sensitivity in the second wavelength,
Endoscope system equipped with.
前記輝度補正部による補正後の前記第1の輝度信号及び前記第2の輝度信号に基づいて前記被検体の構造を強調した画像信号を生成する画像信号生成部と、
をさらに備えた請求項1に記載の内視鏡システム。 A luminance correction unit that corrects at least one of the first luminance signal and the second luminance signal for each pixel or each imaging region based on the first reference signal and the second reference signal; ,
An image signal generation unit that generates an image signal in which the structure of the subject is emphasized based on the first luminance signal and the second luminance signal after correction by the luminance correction unit;
The endoscope system according to claim 1, further comprising:
前記輝度補正部は、前記参照信号補正部により補正された前記第1の参照信号及び第2の参照信号に基づいて前記第1の輝度信号及び前記第2の輝度信号のうちの少なくとも一方の輝度信号を画素毎又は撮像領域毎に補正する請求項4又は5に記載の内視鏡システム。 Based on the set light amounts of the first illumination light and the second illumination light, and the spectral sensitivity of the reference signal acquisition pixel with respect to the first illumination light and the second illumination light, respectively, the first illumination light and the second illumination light. A reference signal correction unit for correcting the reference signal and the second reference signal,
The luminance correction unit is a luminance of at least one of the first luminance signal and the second luminance signal based on the first reference signal and the second reference signal corrected by the reference signal correction unit. The endoscope system according to claim 4 or 5, wherein the signal is corrected for each pixel or each imaging region.
前記輝度補正部は、前記周波数処理部により処理された前記第1の参照信号及び前記第2の参照信号に基づいて前記第1の輝度信号及び前記第2の輝度信号のうちの少なくとも一方の輝度信号を画素毎又は撮像領域毎に補正する請求項2から9のいずれか1項に記載の内視鏡システム。 A frequency processing unit for reducing high frequency components of the first reference signal and the second reference signal;
The luminance correction unit is a luminance of at least one of the first luminance signal and the second luminance signal based on the first reference signal and the second reference signal processed by the frequency processing unit. The endoscope system according to any one of claims 2 to 9, wherein the signal is corrected for each pixel or each imaging region.
前記周波数処理部は、前記撮像部による撮像時の観察距離に基づいて前記記憶部から対応する目標周波数特性を取得し、前記第1の参照信号及び前記第2の参照信号の周波数特性を前記取得した目標周波数特性に調整する請求項11に記載の内視鏡システム。 A storage unit that holds target frequency characteristics targeted for each observation distance from the imaging unit to the subject;
The frequency processing unit acquires a corresponding target frequency characteristic from the storage unit based on an observation distance at the time of imaging by the imaging unit, and acquires the frequency characteristics of the first reference signal and the second reference signal. The endoscope system according to claim 11, wherein the endoscope system is adjusted to a target frequency characteristic.
前記輝度補正部により補正された前記第1の輝度信号と前記第2の輝度信号との差分信号を算出する差分算出部と、
前記算出した差分信号から色差信号を生成する色差信号生成部と、
前記第1の輝度信号及び前記第2の輝度信号のうちの一方の輝度信号と前記生成した色差信号とを有するカラー画像信号、又は前記第1の輝度信号及び前記第2の輝度信号のうちの一方の輝度信号と前記生成した色差信号を前記三原色の各画像信号に変換したカラー画像信号を生成するカラー画像生成部と、
を有する請求項2から13のいずれか1項に記載の内視鏡システム。 The image signal generator is
A difference calculation unit for calculating a difference signal between the first luminance signal and the second luminance signal corrected by the luminance correction unit;
A color difference signal generation unit that generates a color difference signal from the calculated difference signal;
A color image signal having one of the first luminance signal and the second luminance signal and the generated color difference signal, or the first luminance signal and the second luminance signal; A color image generation unit that generates a color image signal obtained by converting one luminance signal and the generated color difference signal into each image signal of the three primary colors;
The endoscope system according to any one of claims 2 to 13, comprising:
前記画像信号生成部は、前記血管を色により強調した前記画像信号を生成する請求項2から14のいずれか1項に記載の内視鏡システム。 The structure of the subject is a blood vessel,
The endoscope system according to claim 2, wherein the image signal generation unit generates the image signal in which the blood vessel is emphasized by color.
前記光源と、前記光源制御部と、前記画像信号取得部と、前記輝度補正部と、前記画像信号生成部と、を備えたプロセッサ装置。 The processor device of the endoscope system according to any one of claims 2 to 15,
The processor apparatus provided with the said light source, the said light source control part, the said image signal acquisition part, the said brightness correction part, and the said image signal generation part.
前記第1の発光制御が行われるときに、前記撮像素子の第1の画素、第2の画素及び第3の画素のうちの、前記第1の波長に最も分光感度の高い画素から第1の輝度信号を取得し、かつ前記撮像素子の第1の画素、第2の画素及び第3の画素のうちの前記第3の波長に感度を有する画素であって、少なくとも前記第1の波長に最も分光感度の高い画素とは異なる画素から第1の参照信号を取得し、前記第2の発光制御が行われるときに、前記撮像素子の第1の画素、第2の画素及び第3の画素のうちの、前記第2の波長に最も分光感度の高い画素から第2の輝度信号を取得し、かつ前記撮像素子の第1の画素、第2の画素及び第3の画素のうちの前記第3の波長に感度を有する画素であって、少なくとも前記第2の波長に最も分光感度の高い画素とは異なる画素から第2の参照信号を取得するステップと、
を含む信号処理方法。 When an object is imaged by an imaging unit including an objective lens and an imaging device having a first pixel, a second pixel, and a third pixel in which color filters corresponding to the three primary colors are arranged, the wavelengths are different from each other. The first illumination light and the first illumination light are emitted from a light source that emits the first illumination light, the second illumination light, and the third illumination light having peaks at the first wavelength, the second wavelength, and the third wavelength. Sequentially performing a first light emission control for simultaneously emitting the third illumination light and a second light emission control for simultaneously emitting the second illumination light and the third illumination light;
When the first light emission control is performed, the first pixel, the second pixel, and the third pixel of the image pickup device are changed from the pixel having the highest spectral sensitivity to the first wavelength. A pixel that obtains a luminance signal and is sensitive to the third wavelength among the first pixel, the second pixel, and the third pixel of the imaging device, and is at least the first wavelength When the first reference signal is acquired from a pixel different from the pixel having high spectral sensitivity and the second light emission control is performed, the first pixel, the second pixel, and the third pixel of the image sensor Of these, the second luminance signal is obtained from the pixel having the highest spectral sensitivity at the second wavelength, and the third of the first pixel, the second pixel, and the third pixel of the image sensor. A pixel having sensitivity to a wavelength of at least the highest spectral sensitivity to at least the second wavelength Obtaining a second reference signal from a different pixel from the element,
A signal processing method including:
輝度補正された前記第1の輝度信号及び前記第2の輝度信号に基づいて前記被検体の構造を強調した画像信号を生成するステップと、
をさらに備えた請求項17に記載の信号処理方法。 Correcting at least one luminance signal of the first luminance signal and the second luminance signal for each pixel or each imaging region based on the first reference signal and the second reference signal;
Generating an image signal in which the structure of the subject is emphasized based on the first luminance signal and the second luminance signal whose luminance has been corrected;
The signal processing method according to claim 17, further comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016097269A JP6562554B2 (en) | 2016-05-13 | 2016-05-13 | Endoscope system, processor device, and signal processing method for endoscope system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016097269A JP6562554B2 (en) | 2016-05-13 | 2016-05-13 | Endoscope system, processor device, and signal processing method for endoscope system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017202241A true JP2017202241A (en) | 2017-11-16 |
JP6562554B2 JP6562554B2 (en) | 2019-08-21 |
Family
ID=60321310
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016097269A Active JP6562554B2 (en) | 2016-05-13 | 2016-05-13 | Endoscope system, processor device, and signal processing method for endoscope system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6562554B2 (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019130834A1 (en) * | 2017-12-26 | 2019-07-04 | オリンパス株式会社 | Image processing device and image processing method |
WO2019220583A1 (en) * | 2018-05-17 | 2019-11-21 | オリンパス株式会社 | Endoscope device, endoscope device operation method, and program |
CN112004455A (en) * | 2018-04-23 | 2020-11-27 | 富士胶片株式会社 | Medical image processing system |
JPWO2021070688A1 (en) * | 2019-10-10 | 2021-04-15 | ||
CN113366366A (en) * | 2019-01-30 | 2021-09-07 | 富士胶片株式会社 | Endoscope system |
CN113454514A (en) * | 2019-02-19 | 2021-09-28 | 富士胶片株式会社 | Endoscope system |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013146484A (en) * | 2012-01-23 | 2013-08-01 | Fujifilm Corp | Electronic endoscope system, image processing apparatus, image processing method, and image processing program |
JP2013150712A (en) * | 2012-01-25 | 2013-08-08 | Fujifilm Corp | Endoscope system, processor device for endoscope system, and image processing method |
JP2016067775A (en) * | 2014-09-30 | 2016-05-09 | 富士フイルム株式会社 | Endoscope system, processor device, method for operating endoscope system, and method for operating processor device |
-
2016
- 2016-05-13 JP JP2016097269A patent/JP6562554B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013146484A (en) * | 2012-01-23 | 2013-08-01 | Fujifilm Corp | Electronic endoscope system, image processing apparatus, image processing method, and image processing program |
JP2013150712A (en) * | 2012-01-25 | 2013-08-08 | Fujifilm Corp | Endoscope system, processor device for endoscope system, and image processing method |
JP2016067775A (en) * | 2014-09-30 | 2016-05-09 | 富士フイルム株式会社 | Endoscope system, processor device, method for operating endoscope system, and method for operating processor device |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11509834B2 (en) | 2017-12-26 | 2022-11-22 | Olympus Corporation | Image processing apparatus and image processing method |
US12035052B2 (en) | 2017-12-26 | 2024-07-09 | Olympus Corporation | Image processing apparatus and image processing method |
CN111511263A (en) * | 2017-12-26 | 2020-08-07 | 奥林巴斯株式会社 | Image processing apparatus and image processing method |
JPWO2019130834A1 (en) * | 2017-12-26 | 2020-11-19 | オリンパス株式会社 | Image processing device and image processing method |
WO2019130834A1 (en) * | 2017-12-26 | 2019-07-04 | オリンパス株式会社 | Image processing device and image processing method |
CN112004455A (en) * | 2018-04-23 | 2020-11-27 | 富士胶片株式会社 | Medical image processing system |
CN112004455B (en) * | 2018-04-23 | 2024-04-26 | 富士胶片株式会社 | Medical image processing system |
US11759098B2 (en) | 2018-05-17 | 2023-09-19 | Olympus Corporation | Endoscope apparatus and operating method of endoscope apparatus |
JPWO2019220583A1 (en) * | 2018-05-17 | 2021-05-13 | オリンパス株式会社 | Endoscope device and how to operate the endoscope device |
WO2019220583A1 (en) * | 2018-05-17 | 2019-11-21 | オリンパス株式会社 | Endoscope device, endoscope device operation method, and program |
JP7090699B2 (en) | 2018-05-17 | 2022-06-24 | オリンパス株式会社 | How to operate the endoscope device and the endoscope device |
CN113366366A (en) * | 2019-01-30 | 2021-09-07 | 富士胶片株式会社 | Endoscope system |
CN113454514B (en) * | 2019-02-19 | 2023-11-07 | 富士胶片株式会社 | endoscope system |
US12004723B2 (en) | 2019-02-19 | 2024-06-11 | Fujifilm Corporation | Endoscope system for controlling an amount of illumination light |
CN113454514A (en) * | 2019-02-19 | 2021-09-28 | 富士胶片株式会社 | Endoscope system |
JP7312843B2 (en) | 2019-10-10 | 2023-07-21 | 富士フイルム株式会社 | Endoscope system and its operating method |
JPWO2021070688A1 (en) * | 2019-10-10 | 2021-04-15 | ||
WO2021070688A1 (en) * | 2019-10-10 | 2021-04-15 | 富士フイルム株式会社 | Endoscope system and method for operating same |
CN114554932A (en) * | 2019-10-10 | 2022-05-27 | 富士胶片株式会社 | Endoscope system and method for operating same |
Also Published As
Publication number | Publication date |
---|---|
JP6562554B2 (en) | 2019-08-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6367683B2 (en) | Endoscope system, processor device, operation method of endoscope system, and operation method of processor device | |
JP6562554B2 (en) | Endoscope system, processor device, and signal processing method for endoscope system | |
JP6234350B2 (en) | Endoscope system, processor device, operation method of endoscope system, and operation method of processor device | |
JP6525918B2 (en) | Endoscope system, image processing apparatus, and operation method of image processing apparatus | |
JP6461739B2 (en) | Image processing apparatus, endoscope system, and method of operating image processing apparatus | |
JP5355846B2 (en) | Endoscope image processing device | |
US10039439B2 (en) | Endoscope system and method for operating the same | |
US10709310B2 (en) | Endoscope system, processor device, and method for operating endoscope system | |
JP6522539B2 (en) | Endoscope system and method of operating the same | |
JP5968944B2 (en) | Endoscope system, processor device, light source device, operation method of endoscope system, operation method of processor device, operation method of light source device | |
JP6243364B2 (en) | Endoscope processor, operation method, and control program | |
JP6196598B2 (en) | Endoscope system, processor device, operation method of endoscope system, and operation method of processor device | |
JP6576895B2 (en) | Endoscope system, processor device, and operation method of endoscope system | |
CN111050629B (en) | Endoscope system | |
WO2016104408A1 (en) | Processor device for endoscope, method for operating same, and control program | |
JP6153913B2 (en) | Endoscope system, processor device, operation method of endoscope system, and operation method of processor device | |
JP6153912B2 (en) | Endoscope system, processor device, operation method of endoscope system, and operation method of processor device | |
JP6615950B2 (en) | Endoscope system, processor device, operation method of endoscope system, and operation method of processor device | |
JP6196599B2 (en) | Endoscope processor device and method of operating endoscope processor device | |
JPWO2017170232A1 (en) | Endoscopic image signal processing apparatus and method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180725 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190425 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190508 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190520 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190717 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190722 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6562554 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |