JP4933766B2 - Electronic endoscope device - Google Patents

Electronic endoscope device Download PDF

Info

Publication number
JP4933766B2
JP4933766B2 JP2005305262A JP2005305262A JP4933766B2 JP 4933766 B2 JP4933766 B2 JP 4933766B2 JP 2005305262 A JP2005305262 A JP 2005305262A JP 2005305262 A JP2005305262 A JP 2005305262A JP 4933766 B2 JP4933766 B2 JP 4933766B2
Authority
JP
Japan
Prior art keywords
image
electronic endoscope
color
processing
setting information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005305262A
Other languages
Japanese (ja)
Other versions
JP2006142002A (en
Inventor
義文 堂之前
一則 阿部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2005305262A priority Critical patent/JP4933766B2/en
Publication of JP2006142002A publication Critical patent/JP2006142002A/en
Application granted granted Critical
Publication of JP4933766B2 publication Critical patent/JP4933766B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)
  • Endoscopes (AREA)
  • Image Processing (AREA)

Description

本発明は、電子内視鏡装置の画像処理機能に関する。   The present invention relates to an image processing function of an electronic endoscope apparatus.

電子内視鏡装置は、通常、太さや解像度が異なる複数本の電子内視鏡と、撮影により取得された画像をモニタ出力用に処理する処理装置のセットで提供される。このため、処理装置は、一緒に提供されるすべての電子内視鏡について、相応の画質の画像をモニタ出力できる装置でなければならない。   The electronic endoscope apparatus is usually provided as a set of a plurality of electronic endoscopes having different thicknesses and resolutions and a processing apparatus that processes an image acquired by photographing for monitor output. For this reason, the processing apparatus must be an apparatus that can monitor and output an image having an appropriate image quality for all the electronic endoscopes provided together.

このような課題を解決する発明としては、例えば特許文献1に、処理装置側で電子内視鏡のCCDの種類を検知し、CCDの画素数に応じて画像のズーム機能を制限する機能を備えた装置が開示されている。   As an invention for solving such a problem, for example, Patent Document 1 has a function of detecting a CCD type of an electronic endoscope on the processing apparatus side and limiting a zoom function of an image according to the number of pixels of the CCD. An apparatus is disclosed.

また、電子内視鏡装置の処理装置は、通常、画質を向上するための画像処理機能を備えている。特許文献1に開示された装置も、色調調整回路や構造強調回路を備えている。
特開2004−335号公報
In addition, the processing device of the electronic endoscope apparatus usually has an image processing function for improving the image quality. The apparatus disclosed in Patent Document 1 also includes a color tone adjustment circuit and a structure enhancement circuit.
JP 2004-335 A

前述のとおり、既存の電子内視鏡装置では処理装置とともに複数種類の電子内視鏡が提供されてはいるが、電子内視鏡に搭載されるCCD(Charge Coupled Device)は同じメーカーが提供する同じタイプのCCDで、異なるのは解像度のみであった。   As described above, in the existing electronic endoscope apparatus, a plurality of types of electronic endoscopes are provided together with the processing apparatus, but the same manufacturer provides the CCD (Charge Coupled Device) mounted on the electronic endoscope. For the same type of CCD, the only difference was the resolution.

これに対し、出願人らは、電子内視鏡に搭載するCCDとして、メーカーやカラーフィルタの種類が異なるCCDを採用することを検討している。この場合、CCDの色取得方式はそれぞれ異なることになる。   On the other hand, the applicants are considering adopting CCDs with different types of manufacturers and color filters as CCDs mounted on the electronic endoscope. In this case, the CCD color acquisition methods are different.

しかし、特許文献1に開示された装置が、CCDの種類を判定しながら、その結果を色調調整回路で利用していないことからもわかるように、上記背景の下では、CCDの種類に応じて明るさや色味を調整する必要がなかった。また、画素数の調整と比較して、色味の調整には複雑な処理が必要であるため、これまで、そのような機能を備えた電子内視鏡装置が提供されることはなかった。   However, as can be seen from the fact that the apparatus disclosed in Patent Document 1 does not use the result in the color tone adjustment circuit while determining the type of CCD, under the above background, according to the type of CCD. There was no need to adjust brightness or color. In addition, as compared with the adjustment of the number of pixels, the color adjustment requires a complicated process, and thus an electronic endoscope apparatus having such a function has not been provided so far.

上記事情から、本発明は、CCDの色取得方式に拘わらず、また調整のためにユーザに負担をかけることなく、常に診断に適した高画質の画像をモニタ出力することができる電子内視鏡装置を提供することを課題とする。   In view of the above circumstances, the present invention is an electronic endoscope that can always output a high-quality image suitable for diagnosis regardless of the CCD color acquisition method and without burdening the user for adjustment. It is an object to provide an apparatus.

上記課題を解決するために、本発明は電子内視鏡と、その電子内視鏡により取得された画像を処理する処理装置を備えた電子内視鏡装置であって、処理装置が以下の構成を有する装置を提供する。   In order to solve the above problems, the present invention is an electronic endoscope apparatus including an electronic endoscope and a processing device that processes an image acquired by the electronic endoscope, and the processing device has the following configuration An apparatus is provided.

この処理装置は、色情報の取得方式が異なる複数機種の電子内視鏡を選択的に接続し得る接続部を備える。   This processing apparatus includes a connection unit that can selectively connect a plurality of types of electronic endoscopes having different color information acquisition methods.

また、この処理装置は、観察対象の撮影により電子内視鏡が取得し得る色を表す値と前記観察対象の真の色を表す値との対応付けが記憶された、電子内視鏡の機種ごとの複数の置換テーブルを備える。置換テーブルは処理装置のメモリなどに記憶される。   In addition, this processing apparatus is a model of an electronic endoscope in which a correspondence between a value representing a color that can be acquired by an electronic endoscope by photographing an observation target and a value representing a true color of the observation target is stored. Each is provided with a plurality of replacement tables. The replacement table is stored in the memory of the processing device.

さらに、この処理装置は、その処理装置に接続されている電子内視鏡から電子内視鏡の機種を表す情報を取得することにより、電子内視鏡の機種を判別する機種判別手段を備える。   The processing apparatus further includes a model discriminating unit that discriminates the model of the electronic endoscope by acquiring information representing the model of the electronic endoscope from the electronic endoscope connected to the processing apparatus.

また、機種判別手段により判別された機種用の置換テーブルに記憶された対応付けを利用して処理装置に接続されている電子内視鏡により取得された色の値を置き換えることにより、観察対象の真の色を忠実に再現した画像を生成する忠実色再現画像生成手段を備える。   Also, by replacing the color value acquired by the electronic endoscope connected to the processing device using the correspondence stored in the replacement table for the model determined by the model determining means, A faithful color reproduction image generating means for generating an image that faithfully reproduces the true color is provided.

さらに、この処理装置は、画像処理の内容を規定する設定情報を、内視鏡検査の目的ごとに記憶し得る設定情報記憶手段と、設定情報記憶手段が記憶する設定情報のうち処理装置に入力された選択信号に基づいて選択された一の設定情報を参照して、忠実色再現画像生成手段により生成された画像の画像処理を行う画像処理手段を備える。内視鏡検査の目的ごとに記憶するとは、例えば、観察部位ごと、使用する検査薬ごと、検査により発見しようとする対象ごとに記憶することなどをいう。   Further, the processing apparatus inputs setting information defining the content of image processing to the processing apparatus among setting information storage means capable of storing for each purpose of endoscopy and setting information stored by the setting information storage means. An image processing unit that performs image processing of the image generated by the faithful color reproduction image generation unit with reference to one setting information selected based on the selected signal. For example, storing for each purpose of endoscopy means storing for each observation site, for each test drug to be used, and for each object to be discovered by the test.

設定情報記憶手段に記憶させる設定情報としては、次のような情報が考えられる。例えば、画像処理手段が、明るさ調整、シャープネス調整、色相調整など異なる画像処理を実行する複数の処理部を備えている場合には、設定情報として、複数の処理部のうち処理を実行させる1以上の処理部を指定する情報を記憶しておくのがよい。また、画像処理手段により参照されるデータを記憶し得るデータ記憶手段を設け、設定情報として、そのデータ記憶手段が記憶しているデータのうち処理に使用する1以上のデータを指定する情報を記憶しておいてもよい。なお、処理に使用するデータには、ルックアップテーブル、処理条件を表すパラメータなど、処理に使用するあらゆるデータが含まれる。   The following information can be considered as the setting information stored in the setting information storage means. For example, when the image processing means includes a plurality of processing units that execute different image processing such as brightness adjustment, sharpness adjustment, hue adjustment, etc., the setting information is executed among the plurality of processing units 1 It is preferable to store information specifying the above processing units. Further, data storage means capable of storing data referred to by the image processing means is provided, and information specifying one or more data used for processing among the data stored in the data storage means is stored as setting information. You may keep it. Note that the data used for processing includes all types of data used for processing, such as a lookup table and parameters representing processing conditions.

上記構成の電子内視鏡装置によれば、忠実色再現画像生成手段によりCCDの色取得方式に依存しない画像が生成され、その画像に対して画像処理手段による画像処理が施される。このため、CCDの色取得方式の違いによって画像処理の結果が異なることがない。また、目的別に予め記憶されている設定情報を利用して画像処理を行うので、検査の度に複雑な調整を行う必要がなく、ユーザの負担が少ない。さらに、画像処理は、忠実色再現画像生成手段が生成した画像を対象に行うため、設定情報を内視鏡ごとに用意する必要がない。   According to the electronic endoscope apparatus configured as described above, an image independent of the CCD color acquisition method is generated by the faithful color reproduction image generation means, and the image processing by the image processing means is performed on the image. For this reason, the result of image processing does not differ depending on the difference in CCD color acquisition method. In addition, since image processing is performed using setting information stored in advance for each purpose, it is not necessary to make complicated adjustments for each inspection, and the burden on the user is small. Furthermore, since the image processing is performed on the image generated by the faithful color reproduction image generating means, it is not necessary to prepare setting information for each endoscope.

以下、本発明の一実施形態として、消化器検査に用いられる電子内視鏡システムを例示する。   Hereinafter, as one embodiment of the present invention, an electronic endoscope system used for a digestive organ examination will be exemplified.

1. システムの構成
図1に、電子内視鏡システムの概略構成を示す。電子内視鏡システム1は、図に示すように、電子内視鏡2(以下、スコープ2)と、電子内視鏡により取得された画像を処理する処理装置3(以下、プロセッサ3)と、図示されない光源装置、モニタおよびプリンタなどを備える。電子内視鏡システム1では、内視鏡検査の目的に応じた複数種類のスコープを使用することができるが、図のスコープ2は、それらのスコープに共通する構成を示したものである。
1. System Configuration FIG. 1 shows a schematic configuration of an electronic endoscope system. As shown in the figure, the electronic endoscope system 1 includes an electronic endoscope 2 (hereinafter referred to as a scope 2), a processing device 3 (hereinafter referred to as a processor 3) for processing an image acquired by the electronic endoscope, A light source device, a monitor, a printer, and the like (not shown) are provided. The electronic endoscope system 1 can use a plurality of types of scopes according to the purpose of the endoscopy, but the scope 2 in the figure shows a configuration common to these scopes.

スコープ2は、CCD(Charge Coupled Device)21、CCD21により取得された信号を処理する信号処理回路22、各種制御処理を行うマイコン23およびプロセッサ3に接続されるコネクタ部(図示せず)を備える。   The scope 2 includes a CCD (Charge Coupled Device) 21, a signal processing circuit 22 that processes a signal acquired by the CCD 21, a microcomputer 23 that performs various control processes, and a connector unit (not shown) connected to the processor 3.

CCD21は、対物レンズとともにスコープ2の先端に取り付けられ、観察対象からの反射光を取得し、電気信号に変換する。本実施形態ではCCDの撮像分解能は約5μmである。   The CCD 21 is attached to the tip of the scope 2 together with the objective lens, acquires reflected light from the observation target, and converts it into an electrical signal. In this embodiment, the imaging resolution of the CCD is about 5 μm.

信号処理回路22は、CCD21の出力信号に対し相関二重サンプリング、自動利得制御およびA/D変換などの信号処理を施す。マイコン23は、信号処理回路の動作やプロセッサ3へのデータ伝送を制御する。   The signal processing circuit 22 performs signal processing such as correlated double sampling, automatic gain control, and A / D conversion on the output signal of the CCD 21. The microcomputer 23 controls the operation of the signal processing circuit and data transmission to the processor 3.

ここで、スコープ2の色情報の取得方式について説明する。一般に、CCDはカラーフィルタを備えており、観察対象からの反射光をカラーフィルタを介して取得することによって、観察対象の色に関する情報を取得する。このため、CCDが備えるカラーフィルタの配置のしかた、あるいはカラーフィルタの種類が異なれば、取得される画像の色情報の質や色表現は異なることとなる。   Here, the acquisition method of the color information of the scope 2 will be described. In general, a CCD includes a color filter, and acquires information about the color of the observation target by acquiring reflected light from the observation target through the color filter. For this reason, the quality and color representation of the color information of the acquired image differ depending on the arrangement of color filters provided in the CCD or the type of color filter.

例えば、カラーフィルタの配置のしかたについては、回転式フィルタを回転させながら各色の情報を交互に取得する面順次式のCCDと、モザイクフィルタを介して各色の情報をまとめて取得する同時式のCCDが知られている。既存のスコープには、面順次式のCCDを採用したものもあれば、同時式のCCDを採用したものもある。しかし、面順次式のCCDは、撮影する部位の動きがフィルタの回転よりも速い場合に、各色の画像がずれる場合がある。このため、電子内視鏡システム1では、スコープ2として、同時式のCCDを備えたスコープを採用している。   For example, regarding the arrangement of the color filter, a frame sequential CCD that alternately acquires information of each color while rotating the rotary filter, and a simultaneous CCD that collectively acquires information of each color via the mosaic filter It has been known. Some existing scopes employ a field sequential CCD, while others employ a simultaneous CCD. However, in the case of the frame sequential type CCD, when the movement of the part to be imaged is faster than the rotation of the filter, the images of the respective colors may shift. For this reason, the electronic endoscope system 1 employs a scope having a simultaneous CCD as the scope 2.

また、カラーフィルタの種類としては、赤(R),緑(G)、青(B)の3色を分別する原色フィルタと、シアン(C),マゼンダ(M),イエロー(Y),グリーン(G)の4色を分別する補色フィルタが知られている。原色フィルタを備えたCCD(以下、原色CCD)により取得される画像はRGBで表現され、補色フィルタを備えたCCD(以下、補色CCD)により取得される画像はCMYGで表現される。このため、既存の電子内視鏡システムは、原色CCDを備えたスコープもしくは補色CCDを備えたスコープのいずれか一方しか使用することができない。これに対し、電子内視鏡システム1では、CCDのカラーフィルタの種類が異なる複数種類のスコープを使用することができる。   As the types of color filters, primary color filters for separating three colors of red (R), green (G), and blue (B), cyan (C), magenta (M), yellow (Y), green ( A complementary color filter that separates the four colors G) is known. An image acquired by a CCD provided with a primary color filter (hereinafter referred to as primary color CCD) is expressed in RGB, and an image acquired by a CCD provided with a complementary color filter (hereinafter referred to as complementary color CCD) is expressed in CMYG. For this reason, the existing electronic endoscope system can use only one of a scope having a primary color CCD and a scope having a complementary color CCD. On the other hand, in the electronic endoscope system 1, a plurality of types of scopes having different types of CCD color filters can be used.

表1に電子内視鏡システム1で使用できるスコープを例示する。

Figure 0004933766
Table 1 illustrates scopes that can be used in the electronic endoscope system 1.
Figure 0004933766

表1において、スコープA,B,CのCCDは、いずれも原色フィルタを備えたCCDであり解像度も同じであるが、スコープB、Cは、CCDのフィルタとは別に、ある特定の色の光だけを通さないようにするカットフィルタを備えている。このように、観察対象の色情報を取得する方式は、面順次式か同時式か、原色CCDか補色CCDかということのみならず、CCDと組み合わせるカットフィルタの種類によっても異なる。   In Table 1, the CCDs of scopes A, B, and C are all CCDs having primary color filters and have the same resolution. However, scopes B and C have a specific color light separately from the CCD filters. It has a cut filter that prevents it from passing through. As described above, the method for acquiring the color information of the observation target is not only the field sequential type or the simultaneous type, the primary color CCD or the complementary color CCD, but also the type of cut filter combined with the CCD.

次に、プロセッサ3の構成について説明する。プロセッサ3は、図示されないコネクタ部を備える。プロセッサ3のコネクタ部は、上記各スコープのコネクタ部を簡単に接続したり取り外したりできる構造となっている。   Next, the configuration of the processor 3 will be described. The processor 3 includes a connector unit (not shown). The connector part of the processor 3 has a structure in which the connector part of each scope can be easily connected or removed.

また、プロセッサ3は、スコープ2の信号処理回路22から、コネクタ部を介して入力された信号に対し、ガンマ補正を施してビデオ信号を生成する信号処理回路31を備える。信号処理回路31は、スコープの信号処理回路22の出力信号がCMYG信号の場合には、CMYG信号からRGB信号への変換処理も行う。また、プロセッサ3は、信号処理回路31の動作や、スコープ2との通信を制御するマイコン32を備える。信号処理回路31の後段には、画素数変換やD/A変換を行ってモニタ出力用の信号を生成する信号処理回路35が配置されている。   The processor 3 includes a signal processing circuit 31 that performs gamma correction on a signal input from the signal processing circuit 22 of the scope 2 via the connector unit to generate a video signal. When the output signal of the scope signal processing circuit 22 is a CMYG signal, the signal processing circuit 31 also performs a conversion process from the CMYG signal to the RGB signal. The processor 3 includes a microcomputer 32 that controls the operation of the signal processing circuit 31 and the communication with the scope 2. A signal processing circuit 35 that generates a monitor output signal by performing pixel number conversion and D / A conversion is disposed at the subsequent stage of the signal processing circuit 31.

さらに、プロセッサ3は、信号処理回路31、マイコン32および信号処理回路35が搭載された主基板とは別に、画像処理専用基板4を備える。画像処理専用基板4には、信号処理回路31から出力された画像信号に対し各種画像処理を施す画像処理回路41と、画像処理回路41を制御するマイコン42が搭載されている。画像処理回路41は信号処理回路31,35とセレクタ33,34を介して接続されている。セレクタ33,34はマイコン32からの制御信号に基づいて切り替わる。   Furthermore, the processor 3 includes an image processing dedicated substrate 4 separately from the main substrate on which the signal processing circuit 31, the microcomputer 32, and the signal processing circuit 35 are mounted. On the image processing dedicated board 4, an image processing circuit 41 that performs various image processing on the image signal output from the signal processing circuit 31 and a microcomputer 42 that controls the image processing circuit 41 are mounted. The image processing circuit 41 is connected to the signal processing circuits 31 and 35 via the selectors 33 and 34. The selectors 33 and 34 are switched based on a control signal from the microcomputer 32.

図2に、画像処理専用基板4の詳細構成を示す。図に示すように、画像処理回路41は標準画像生成部411、色置換部412、明彩度調整部413、シャープネス調整部414、色相調整部415および後処理部416の6つの処理部に分類される。色置換部412、明彩度調整部413、シャープネス調整部414および色相調整部415は、セレクタ417a〜eの切り替えにより、選択的に動作させることができる。セレクタ417a〜eは、マイコン42から供給される制御信号に基づいて切り替わる。   FIG. 2 shows a detailed configuration of the image processing dedicated substrate 4. As shown in the figure, the image processing circuit 41 is classified into six processing units: a standard image generation unit 411, a color replacement unit 412, a lightness / saturation adjustment unit 413, a sharpness adjustment unit 414, a hue adjustment unit 415, and a post-processing unit 416. Is done. The color replacement unit 412, the brightness / saturation adjustment unit 413, the sharpness adjustment unit 414, and the hue adjustment unit 415 can be selectively operated by switching the selectors 417a to 417e. The selectors 417a to 417e are switched based on a control signal supplied from the microcomputer 42.

また、画像処理専用基板4には、メモリ43が搭載されている。メモリ43には、色置換部412、明彩度調整部413、シャープネス調整部414および色相調整部415の処理で利用される各種ルックアップテーブルが記憶されている。このうち、色置換部412で使用されるルックアップテーブルは、スコープの機種ごとに記憶されている。メモリ43には、このほかにも各種処理パラメータが記憶されている。なお、メモリ43に記憶されているルックアップテーブルや処理パラメータの中には、電子内視鏡システム1がメーカーから出荷される時点で記憶されているもののほか、ユーザが後から記憶させたものも含まれている。これらのルックアップテーブルやパラメータは、後述するように、マイコン42により参照される。   Further, the memory 43 is mounted on the image processing dedicated substrate 4. The memory 43 stores various look-up tables used in the processing of the color replacement unit 412, the brightness / saturation adjustment unit 413, the sharpness adjustment unit 414, and the hue adjustment unit 415. Among these, the lookup table used in the color replacement unit 412 is stored for each scope model. In addition to this, the memory 43 stores various processing parameters. Note that the look-up table and processing parameters stored in the memory 43 are not only stored when the electronic endoscope system 1 is shipped from the manufacturer, but also stored by the user later. include. These lookup tables and parameters are referred to by the microcomputer 42 as described later.

ここで、セレクタ33,34と、セレクタ417a〜eの切り替えについて、さらに説明する。画像処理専用基板4の機能を利用するか否かは、操作パネルで設定される。また、画像処理専用基板4の機能を利用する場合に、色置換部412、明彩度調整部413、シャープネス調整部414および色相調整部415の機能を利用するか否かも、操作パネルで設定される。ユーザが操作パネル上で行った設定の情報(以下、設定情報)は、メモリに記憶される。このメモリは、設定情報記憶用の独立したメモリとすることが好ましいが、メモリ43や他の目的で設けられたメモリの一部領域を利用してもよい。   Here, the switching between the selectors 33 and 34 and the selectors 417a to 417e will be further described. Whether or not to use the function of the image processing board 4 is set on the operation panel. Whether to use the functions of the color replacement unit 412, the brightness / saturation adjustment unit 413, the sharpness adjustment unit 414, and the hue adjustment unit 415 when using the function of the image processing dedicated substrate 4 is also set on the operation panel. The Information on settings made by the user on the operation panel (hereinafter, setting information) is stored in the memory. This memory is preferably an independent memory for storing setting information. However, a partial area of the memory 43 or a memory provided for other purposes may be used.

このメモリは、機能選択に係る設定情報を、複数組まとめて記憶することができる。したがって、ユーザは、電子内視鏡システムを使用する度に、操作パネル上で機能の選択を行うこともできるし、予め、検査の目的ごとに設定情報を記憶しておき、記憶されている設定情報を呼び出して使用することもできる。   This memory can store a plurality of sets of setting information related to function selection. Therefore, each time the user uses the electronic endoscope system, the user can select a function on the operation panel, or the setting information is stored in advance for each inspection purpose. Information can also be recalled and used.

例えば胃の観察に適した設定、大腸の観察に適した設定というように観察部位ごとに設定情報を記憶しておいてもよいし、濃青色検査薬を使った検査に適した設定、赤茶色検査薬を使った検査に適した設定というように使用する検査薬ごとに設定情報を記憶しておいてもよい。さらには、動脈瘤の発見に適した設定、腫瘍の発見に適した設定というように検査により発見しようとする対象ごとに記憶しておいてもよい。   For example, setting information suitable for observation of the stomach, setting suitable for observation of the large intestine may be stored for each observation site, setting suitable for examination using a dark blue test agent, reddish brown You may memorize | store setting information for every test agent to be used like the setting suitable for the test | inspection using a test agent. Furthermore, it may be stored for each object to be discovered by examination such as a setting suitable for finding an aneurysm and a setting suitable for finding a tumor.

図3は、電源投入時にマイコン32が実行する初期化処理の概要を示すフローチャートである。プロセッサ3にスコープ2が接続され、電子内視鏡システム1の電源が投入されると、マイコン32はスコープ2のマイコン23と通信を行って、スコープ2の機種を判別するためのデータ(以下、スコープデータと称する)を取得する(S101)。スコープデータには、表1に例示した情報、すなわちCCDの解像度とフィルタの種類を示す情報が含まれている。フィルタの種類を示す情報には、原色/補色の区別、カットフィルタの有無、カットフィルタによりカットされる周波数(色)などの情報が含まれる。   FIG. 3 is a flowchart showing an overview of the initialization process executed by the microcomputer 32 when the power is turned on. When the scope 2 is connected to the processor 3 and the power of the electronic endoscope system 1 is turned on, the microcomputer 32 communicates with the microcomputer 23 of the scope 2 to determine the data for determining the model of the scope 2 (hereinafter referred to as “the scope 2”). (Referred to as scope data) is acquired (S101). The scope data includes information illustrated in Table 1, that is, information indicating the resolution of the CCD and the type of filter. The information indicating the type of filter includes information such as primary / complementary color distinction, presence / absence of a cut filter, and a frequency (color) cut by the cut filter.

続いて、マイコン32は、メモリに記憶されている設定情報を参照する(S102)。複数の設定情報が記憶されている場合には、操作パネルの操作によりユーザが選択した設定情報を参照する。ユーザが操作パネル上で設定情報を選択する操作を行うと選択内容を表す選択信号がマイコン32に入力される。マイコン32は、入力された選択信号に基づいて選択された設定情報を判断する。そして、参照した設定情報に基づいて画像処理専用基板4との接続の要不要を判定し(S103)、判定結果に基づいてセレクタ33,34を制御する(S104,S109)。接続が不要であり画像処理専用基板4を切り離した場合には、その時点で初期化処理を終了する。   Subsequently, the microcomputer 32 refers to the setting information stored in the memory (S102). When a plurality of setting information is stored, the setting information selected by the user by operating the operation panel is referred to. When the user performs an operation of selecting setting information on the operation panel, a selection signal representing the selection content is input to the microcomputer 32. The microcomputer 32 determines the setting information selected based on the input selection signal. Then, it is determined whether connection with the image processing board 4 is necessary or not based on the reference setting information (S103), and the selectors 33 and 34 are controlled based on the determination result (S104 and S109). When the connection is unnecessary and the image processing board 4 is disconnected, the initialization process is terminated at that time.

マイコン32は、ステップS104において画像処理専用基板4を接続するようにセレクタを制御したときは、次にステップS102で参照した設定情報に基づいて、ユーザが選択した機能の組み合わせが適切か否かを判定する(S105)。   When the microcomputer 32 controls the selector to connect the image processing dedicated substrate 4 in step S104, the microcomputer 32 determines whether or not the combination of functions selected by the user is appropriate based on the setting information referenced in step S102. Determination is made (S105).

マイコン32は、選択機能の組み合わせが適切と判定した場合には、選択された内容を表す指示データを、ステップS101で取得したスコープデータとともに画像処理専用基板4のマイコン42に対し送出する(S108)。   If the microcomputer 32 determines that the combination of the selection functions is appropriate, the microcomputer 32 sends instruction data representing the selected contents to the microcomputer 42 of the image processing board 4 together with the scope data acquired in step S101 (S108). .

一方、選択機能の組み合わせが適切ではないと判定した場合には、プロセッサ3に接続されているモニタ装置(図示せず)に警告メッセージを出力する(S106)。この場合、マイコン32は、機能の組み合わせを適切な組み合わせに自動修正し(S107)、その内容を表す指示データを、ステップS101で取得したスコープデータとともに画像処理専用基板4のマイコン42に対し送出する(S108)。   On the other hand, if it is determined that the combination of the selection functions is not appropriate, a warning message is output to a monitor device (not shown) connected to the processor 3 (S106). In this case, the microcomputer 32 automatically corrects the combination of functions to an appropriate combination (S107), and sends instruction data representing the content to the microcomputer 42 of the image processing board 4 together with the scope data acquired in step S101. (S108).

なお、警告メッセージを出力した後、ユーザが確認操作を行うのを待ってから、スコープデータおよび指示データを送出してもよい。   Note that after outputting the warning message, the scope data and the instruction data may be transmitted after waiting for the user to perform a confirmation operation.

機能選択が適切か否かの判定は、予め記憶されている判断ルールに基づいて行われる。プロセッサ3が備えるメモリに、例えば、明彩度調整部を動作させるときには必ず色置換部も動作させなければならないといった判断ルールを定義したデータを記憶しておく。そして、設定情報をそのデータと照合することによって、ユーザが行った機能選択が適切か否かを判定する。   The determination as to whether the function selection is appropriate is performed based on a determination rule stored in advance. In a memory provided in the processor 3, for example, data defining a determination rule that the color replacement unit must be operated whenever the lightness / saturation adjustment unit is operated is stored. Then, by checking the setting information with the data, it is determined whether the function selection performed by the user is appropriate.

続いて、図4を参照して、マイコン42の動作について説明する。マイコン42は、マイコン32が送出したスコープデータと指示データを受信すると(S201)、スコープデータに基づいてスコープの機種を判別し、さらに指示データに基づいて選択された機能を判別する(S202)。次に、マイコン42は、選択された機能を提供する処理部に信号が入力されるように、セレクタ417a〜417eを制御する(S203)。続いてマイコン42は、各処理部が必要とするルックアップテーブルやパラメータをメモリ43から読み込む(S204)。   Next, the operation of the microcomputer 42 will be described with reference to FIG. When receiving the scope data and the instruction data sent from the microcomputer 32 (S201), the microcomputer 42 determines the scope model based on the scope data, and further determines the function selected based on the instruction data (S202). Next, the microcomputer 42 controls the selectors 417a to 417e so that the signal is input to the processing unit that provides the selected function (S203). Subsequently, the microcomputer 42 reads a lookup table and parameters required by each processing unit from the memory 43 (S204).

この際、前述のとおり、ルックアップテーブルの中にはスコープの機種ごとに記憶されているテーブルがある。上記スコープ機種の判別結果は、メモリから読み込むルックアップテーブルを選択するときに使用する。読み込んだルックアップテーブルやパラメータは、それらを必要とする処理部に送出される(S205)。   At this time, as described above, the lookup table includes a table stored for each scope model. The scope model discrimination result is used when selecting a lookup table to be read from the memory. The read lookup table and parameters are sent to a processing unit that requires them (S205).

以上に説明したように、電子内視鏡システム1のプロセッサ3はスコープ2の機種、言い換えればスコープの色情報取得方式を判別した上で画像処理を行うので、スコープ2としてあらゆるタイプのスコープを採用することができる。すなわち、補色CCDを備えたタイプに限定されたり、原色CCDを備えたタイプに限定されることはない。   As described above, the processor 3 of the electronic endoscope system 1 performs the image processing after determining the type of the scope 2, in other words, the color information acquisition method of the scope, and therefore adopts any type of scope as the scope 2. can do. That is, the present invention is not limited to a type having a complementary color CCD or a type having a primary color CCD.

また、ユーザは操作パネル上で所定の設定操作を行うことにより、あるいは予め記憶しておいた設定を呼び出すことにより、利用したい画像処理機能を自由に選択することができる。この際、知識不足などから不適切な機能選択を行ってしまった場合でも、警告メッセージの出力とともに適切な選択が自動で行われるので、画像処理機能を、常に有効に活用することができる。   The user can freely select an image processing function to be used by performing a predetermined setting operation on the operation panel or by calling a setting stored in advance. At this time, even if an inappropriate function is selected due to lack of knowledge or the like, the appropriate selection is automatically performed together with the output of the warning message, so that the image processing function can always be used effectively.

さらに、画像処理専用基板4の機能を利用しないユーザは、操作パネル上で所定の設定操作を行うことにより、画像処理専用基板4への信号入力を停止させることができる。これにより、使用しない機能のために電力が消費されることはなくなる。   Furthermore, a user who does not use the function of the image processing dedicated substrate 4 can stop signal input to the image processing dedicated substrate 4 by performing a predetermined setting operation on the operation panel. As a result, power is not consumed for functions that are not used.

なお、画像処理回路41は、標準画像生成部411、色置換部412、明彩度調整部413、シャープネス調整部414、色相調整部415および後処理部416の機能をそれぞれ個別に提供する複数の半導体装置が配置された回路であってもよいし、画像処理専用のCPUと6種類の画像処理プログラムが記憶されたメモリが配置された回路であってプログラムの中で各処理を実行するか否かを切り替えるものであってもよい。   The image processing circuit 41 includes a plurality of functions that individually provide the functions of the standard image generation unit 411, the color replacement unit 412, the lightness / saturation adjustment unit 413, the sharpness adjustment unit 414, the hue adjustment unit 415, and the post-processing unit 416. A circuit in which a semiconductor device is arranged may be used, or a circuit in which a CPU dedicated to image processing and a memory in which six types of image processing programs are stored are arranged, and whether or not each process is executed in the program. It may be one that switches between them.

2. システムの画像処理機能
以下、画像処理回路41が実行する画像処理について、詳細に説明する。画像処理回路41が提供する画像処理機能は、大きく分類して2種類ある。
2. Image Processing Function of System Hereinafter, image processing executed by the image processing circuit 41 will be described in detail. The image processing functions provided by the image processing circuit 41 are roughly classified into two types.

第1の機能は、スコープの色情報取得方式の違いを吸収する機能である。具体的には、スコープの機種、詳細にはCCDのカラーフィルタの種類に依存しない標準画像を生成することによって、色情報取得方式の違いを吸収する。標準画像は、撮影した部位の色が忠実に再現された画像となるようにする。この標準画像は、標準画像生成部411において生成される。   The first function is a function that absorbs the difference in the scope color information acquisition method. Specifically, the difference in the color information acquisition method is absorbed by generating a standard image that does not depend on the scope model, specifically, the type of CCD color filter. The standard image is an image in which the color of the imaged part is faithfully reproduced. This standard image is generated by the standard image generation unit 411.

第2の機能は、第1の機能により生成された標準画像を、診断に適した画像となるように処理する機能である。この機能は、色置換部412、明彩度調整部413、シャープネス調整部414および色相調整部415により提供される。   The second function is a function of processing the standard image generated by the first function so as to become an image suitable for diagnosis. This function is provided by the color replacement unit 412, the brightness / saturation adjustment unit 413, the sharpness adjustment unit 414, and the hue adjustment unit 415.

色置換部412は、画像の色味をユーザの好みに合わせることを目的とした画像処理を行う。明彩度調整部413は、暗くて見難い部分を見易くすることを目的とした画像処理を行う。シャープネス調整部414は、診断に必要な構造(例えば凹凸や血管)を強調することを目的とした画像処理を行う。また、色相調整部415は、診断に必要な色の差を強調し、診断に不要な、あるいは診断を妨害するような色の差を低減することを目的とした画像処理を行う。後処理部416は、ノイズの除去とモニタ出力用信号の生成処理を行う。   The color replacement unit 412 performs image processing for the purpose of matching the color of the image to the user's preference. The lightness / saturation adjusting unit 413 performs image processing for the purpose of making it easy to see a dark and difficult-to-see part. The sharpness adjustment unit 414 performs image processing for the purpose of enhancing structures (for example, unevenness and blood vessels) necessary for diagnosis. In addition, the hue adjustment unit 415 performs image processing for emphasizing the color difference necessary for diagnosis and reducing the color difference that is unnecessary for diagnosis or interferes with diagnosis. The post-processing unit 416 performs noise removal and monitor output signal generation processing.

以下、各部ごとに、具体的な処理の例を示す。   Hereinafter, specific examples of processing are shown for each unit.

2.1 標準画像生成部
標準画像生成部411は、標準画像を生成する処理部であるが、標準画像を生成する前に所定の前処理を行う。はじめに、その前処理について説明する。
2.1 Standard Image Generation Unit The standard image generation unit 411 is a processing unit that generates a standard image, and performs predetermined preprocessing before generating a standard image. First, the preprocessing will be described.

信号処理回路31の説明として前述したとおり、電子内視鏡システム1では、スコープ2が補色CCDを備えたスコープである場合には、信号処理回路31においてCMYG信号からRGB信号への変換が行われる。詳細には、信号処理回路31は、補色CCDから得られた信号を輝度信号Yと色差信号Cr,Cbに変換し、さらにその輝度信号Yと色差信号Cr,Cb(以後、YCC信号)を原色信号R,G,Bに変換する。   As described above with reference to the signal processing circuit 31, in the electronic endoscope system 1, when the scope 2 is a scope having a complementary color CCD, the signal processing circuit 31 converts the CMYG signal into the RGB signal. . More specifically, the signal processing circuit 31 converts a signal obtained from the complementary color CCD into a luminance signal Y and color difference signals Cr and Cb, and further uses the luminance signal Y and the color difference signals Cr and Cb (hereinafter referred to as YCC signals) as primary colors. Convert to signals R, G, B.

このため、画像処理回路41に入力されるRGB信号の各値は、小数点以下の値を含む値となる可能性がある。そのような値を複雑な計算に用いれば、画像処理のための計算を繰り返す過程で丸め込み誤差が発生し、色空間に狂いが生ずるおそれがある。   For this reason, each value of the RGB signal input to the image processing circuit 41 may be a value including a value after the decimal point. If such a value is used for a complicated calculation, a rounding error may occur in the process of repeating the calculation for image processing, and there is a possibility that the color space will be distorted.

そこで、標準画像生成部411では、最初に、8ビットのデータを10ビットのデータに置き換える処理を実行する。詳細には、画像を構成する全画素のR値、G値、B値のそれぞれについて、10ビット分の領域を確保して、8ビットデータを4倍した値をその領域に格納する。これは、図5に示すように、8ビットの値を上位方向に2ビットシフトさせた値を10ビットの領域に格納し、その領域の下位2ビットに0の値を格納することに他ならない。これにより、計算の有効桁数が増加するため、丸め込みにより発生する誤差の影響を軽減することができる。なお、標準画像生成部411において10ビットに変換され処理されたデータは、後処理部416により再び8ビットのデータに変換されてからモニタ出力される。   In view of this, the standard image generation unit 411 first executes a process of replacing 8-bit data with 10-bit data. Specifically, for each of the R value, G value, and B value of all the pixels constituting the image, a 10-bit area is secured, and a value obtained by quadrupling 8-bit data is stored in the area. As shown in FIG. 5, this is nothing but storing a value obtained by shifting an 8-bit value by 2 bits in the upper direction in a 10-bit area and storing a 0 value in the lower 2 bits of the area. . As a result, the number of significant digits in the calculation increases, so that the influence of errors caused by rounding can be reduced. Note that the data converted into 10 bits and processed by the standard image generation unit 411 is converted again into 8-bit data by the post-processing unit 416 and then output to the monitor.

続いて、この10ビットのデータを用いて、標準画像を生成する処理について説明する。   Next, a process for generating a standard image using the 10-bit data will be described.

標準画像は、10ビット化したRGBデータを、予め作成しておいた3次元ルックアップテーブル5(以下、3次元LUT5)を用いて変換(置換)することにより生成する。   The standard image is generated by converting (replacing) the 10-bit RGB data using a previously created three-dimensional lookup table 5 (hereinafter, three-dimensional LUT 5).

図6に示すように、3次元LUT5は、スコープにより取得された色の値(R,G,B)を、実物の色の値(R´,B´,G´)に置き換えるテーブルである。スコープにより取得される可能性がある色の値は、実際にスコープを使用して各部位の観察を行えば取得できる。また、実物の色の値は、手術の機会を利用して各部位の色を測色系を用いて測定すれば取得できる。したがって、同じ部位から取得されたデータ同士を対応付ければ、そのスコープ用の3次元LUT5を作成することができる。   As shown in FIG. 6, the three-dimensional LUT 5 is a table that replaces color values (R, G, B) acquired by the scope with real color values (R ′, B ′, G ′). The color value that may be acquired by the scope can be acquired by actually observing each part using the scope. In addition, the actual color value can be obtained by measuring the color of each part using a colorimetric system using the opportunity of surgery. Therefore, if data acquired from the same part are associated with each other, the three-dimensional LUT 5 for the scope can be created.

スコープの機種ごとに観察を行ってデータを収集すれば、各機種用の3次元LUT5を作成することができる。上記の手順により作成されたLUT5によれば、スコープの色情報取得方式の違いのみならず、例えば対物レンズの収差の違いなど色以外に関わる違いも吸収することができる。   If data is collected by observing each scope model, a three-dimensional LUT 5 for each model can be created. According to the LUT 5 created by the above procedure, not only the difference in the color information acquisition method of the scope but also the difference related to other than the color such as the difference in the aberration of the objective lens can be absorbed.

このようにして作成された機種ごとの3次元LUT5は、図2のメモリ43に記憶されており、図4を参照して説明した手順でマイコン42から標準画像生成部411に供給される。標準画像生成部411は、画像を構成する各画素のR,G,B値を、3次元LUT5を用いて置換することにより、観察対象の真の色を忠実に再現した標準画像を生成する。   The three-dimensional LUT 5 for each model created in this way is stored in the memory 43 of FIG. 2, and is supplied from the microcomputer 42 to the standard image generation unit 411 according to the procedure described with reference to FIG. The standard image generation unit 411 generates a standard image that faithfully reproduces the true color of the observation target by replacing the R, G, and B values of each pixel constituting the image using the three-dimensional LUT 5.

なお、R,G,B値それぞれが10ビットで表されたデータを、同じくR,G,B値それぞれが10ビットで表されたデータに置き換える3次元LUT5は、1024個の対応付けを記憶することになる。また3次元LUT5は、スコープの機種ごとに複数記憶しておく必要があるため、メモリ43はそれらを記憶するのに十分な容量を有するものとする必要がある。 The three-dimensional LUT 5 that replaces data in which each R, G, B value is represented by 10 bits with data in which each R, G, B value is represented by 10 bits similarly stores 1,024 3 associations. Will do. Further, since it is necessary to store a plurality of three-dimensional LUTs 5 for each scope model, the memory 43 needs to have a capacity sufficient to store them.

メモリの容量に制限がある場合の対策としては、一部の対応付けのみをLUTに記憶し、他の対応付けは補間計算により求めるという方法が考えられる。例えば、図7に例示するように、R,G,Bがそれぞれ0,32,63,96,・・・,255(32とびの値)のときの対応付けのみを3次元LUT6に記憶しておく。   As a countermeasure when the memory capacity is limited, a method of storing only a part of associations in the LUT and obtaining other associations by interpolation calculation is conceivable. For example, as illustrated in FIG. 7, only the association when R, G, and B are 0, 32, 63, 96,..., 255 (32 values) is stored in the three-dimensional LUT 6. deep.

そして、3次元LUT6に記憶されていないRGB値が入力された場合には、図8に示すように、入力値のRGB空間における座標点P(r,g,b)の周辺から、3次元LUT6に対応付けが記憶されている座標点A〜Hを抽出する。そして、座標点A〜HのRGB値を3次元LUT6を用いて座標点A´〜H´のR´G´B´値に置換する。   When an RGB value that is not stored in the three-dimensional LUT 6 is input, as shown in FIG. 8, the three-dimensional LUT 6 starts from the periphery of the coordinate point P (r, g, b) in the RGB space of the input value. The coordinate points A to H for which the correspondence is stored are extracted. Then, the RGB values of the coordinate points A to H are replaced with the R′G′B ′ values of the coordinate points A ′ to H ′ using the three-dimensional LUT 6.

その後、座標点A´〜H´のR´G´B´値に、座標点A〜Hと座標点Pの関係に応じた重み付けをして加算すれば、3次元LUT6に対応付けが記憶されていない座標点P(r,g,b)に対応するP´(r´,g´,b´)を求めることができる。   After that, if the R′G′B ′ values of the coordinate points A ′ to H ′ are weighted according to the relationship between the coordinate points A to H and the coordinate point P, the association is stored in the three-dimensional LUT 6. P ′ (r ′, g ′, b ′) corresponding to the coordinate point P (r, g, b) that is not present can be obtained.

以上に説明した処理により、スコープの機種に依存せず、かつ実物の色に忠実な色が再現された標準画像を得ることができる。以降の画像処理は、この標準画像を対象として行われるため、スコープの機種によって、画像処理回路41により出力される画像の仕上がりに差が生じるということはない。   Through the processing described above, it is possible to obtain a standard image in which a color faithful to the actual color is reproduced without depending on the scope model. Since the subsequent image processing is performed on this standard image, there is no difference in the finish of the image output by the image processing circuit 41 depending on the scope model.

なお、本実施形態では、セレクタ417a〜417eの切り替えにより後段の色置換部以降の処理部が実行されないようにして、標準画像生成部411において生成された標準画像をモニタ出力することもできる。   In the present embodiment, the standard image generated by the standard image generation unit 411 can be output to the monitor without switching the selectors 417a to 417e so that the processing unit subsequent to the color replacement unit is not executed.

2.2 色置換部
色置換部412は、画像の色をユーザの好みに合わせることを目的とした色置換処理を行う。
2.2 Color Replacement Unit The color replacement unit 412 performs color replacement processing for the purpose of matching the color of an image to the user's preference.

例えば、電子内視鏡システムの光源にはキセノンランプが用いられることが多いが、初期の内視鏡はハロゲンランプを光源として用いていたため、取得される画像は黄色っぽいものであった。このため、実物の色が忠実に再現された画像よりも、慣れ親しんだ色味の画像のほうが正確な診断ができると考えるユーザは少なくない。色置換部412は、このようなニーズに応えるために、標準画像の色をユーザの好みの色に置き換える。   For example, a xenon lamp is often used as a light source of an electronic endoscope system, but since an early endoscope used a halogen lamp as a light source, an acquired image was yellowish. For this reason, there are many users who think that an image having a familiar color can be diagnosed more accurately than an image in which the actual color is faithfully reproduced. In order to meet such needs, the color replacement unit 412 replaces the color of the standard image with a user's favorite color.

色の置換は、標準画像の生成処理と同様、3次元LUTを用いて行う。ここで使用する3次元LUTは、標準画像のRGB値を、それぞれユーザの好みのR´G´B´値に置き換えるテーブルである。このテーブルは、電子内視鏡システム1を提供するメーカーが提供してもよいし、ユーザが自ら作成することもできる。   The color replacement is performed using a three-dimensional LUT, as in the standard image generation process. The three-dimensional LUT used here is a table that replaces the RGB values of the standard image with R′G′B ′ values that the user likes. This table may be provided by the manufacturer that provides the electronic endoscope system 1 or may be created by the user himself / herself.

色置換部412が使用する3次元LUTも、図2のメモリ43に記憶されており、図4を参照して説明した手順でマイコン42から色置換部412に供給される。設定情報はテーブル選択に必要な情報を含んでおり、3次元LUTが複数記憶されている場合には設定情報に基づいて選択されたテーブルが色置換部412に供給される。色置換部412は、供給された3次元LUTを利用して、標準画像を構成する各画素のRGB値を変換する。   The three-dimensional LUT used by the color replacement unit 412 is also stored in the memory 43 of FIG. 2, and is supplied from the microcomputer 42 to the color replacement unit 412 in the procedure described with reference to FIG. The setting information includes information necessary for table selection. When a plurality of three-dimensional LUTs are stored, the table selected based on the setting information is supplied to the color replacement unit 412. The color replacement unit 412 converts the RGB value of each pixel constituting the standard image using the supplied three-dimensional LUT.

なお、標準画像生成処理と同様、3次元LUTに一部の対応付けのみを記憶しておき、3次元LUTに対応付けが記憶されていないRGB値の変換は、補間計算により行ってもよい。   Similar to the standard image generation processing, only a part of the association may be stored in the three-dimensional LUT, and the conversion of the RGB values for which the association is not stored in the three-dimensional LUT may be performed by interpolation calculation.

2.3 明彩度調整部
明彩度調整部413は、画像の明るさを調整する処理を行う。特に、画像中の明暗差が大きいことから生じる問題を解決することを目的とした画像処理を行う。
2.3 Brightness / Saturation Adjustment Unit The brightness / saturation adjustment unit 413 performs processing for adjusting the brightness of an image. In particular, image processing is performed for the purpose of solving a problem caused by a large difference in brightness in an image.

例えば、十二指腸の入口部分の内視鏡撮影では、手前(胃側)と奥(十二指腸の中)との明暗差が大きい画像が得られる。特に濃青色など暗い色の検査薬を散布して撮影を行った場合には、十二指腸内部が暗すぎて観察できないといった問題が生ずる。診断のためには、検査薬を散布した状態でも手前から奥まで見渡せるような画像が必要であるが、内視鏡による撮影では、一般の写真撮影と異なり、撮影時に照明の位置や向きを調整することはできない。また人体が火傷を負う危険があるので、照明を強くすることもできない。このため、画像の明るさが適切な明るさとなるように、画像処理で調整する必要がある。   For example, in endoscopic imaging of the entrance portion of the duodenum, an image with a large contrast between the front (stomach side) and the back (in the duodenum) is obtained. In particular, when photographing is performed by spraying a dark blue test drug such as dark blue, the inside of the duodenum is too dark to be observed. For diagnosis, it is necessary to have an image that can be seen from the front to the back even when sprayed with test chemicals. Unlike conventional photography, the position and orientation of the illumination are adjusted when photographing with an endoscope. I can't do it. Also, there is a risk of burns to the human body, so the lighting cannot be increased. For this reason, it is necessary to adjust by image processing so that the brightness of the image becomes an appropriate brightness.

この際、CCDは光の量に応じて出力電圧を制御する素子であるため、暗い領域の撮影では出力電圧が小さくなり、色の情報を正確に取得できないことがある。この場合、画像処理により単純に画像の輝度成分の値を大きくすると、暗い青色が明るい青色にならずに緑色になるといった問題が発生することがある。このため、明彩度調整部413の処理では、単に画像の明度を補正するのではなく、色味も調整しながら明るさを調整する。   At this time, since the CCD is an element that controls the output voltage in accordance with the amount of light, the output voltage becomes small when photographing in a dark region, and color information may not be obtained accurately. In this case, if the value of the luminance component of the image is simply increased by image processing, there may occur a problem that dark blue does not become light blue but becomes green. For this reason, in the process of the lightness / saturation adjustment unit 413, the brightness is adjusted while adjusting the color rather than simply correcting the lightness of the image.

図9は、明彩度調整部413の処理の概要を示すフローチャートである。明彩度調整部413では、はじめに入力画像をYCC信号に変換し、輝度成分のみからなる輝度画像Yを生成する(S301)。なお、以下の説明では、画像を構成する各画素の位置を(x,y)で表現し、画像Iの位置(x,y)の画素の値をI(x,y)と表すこととする。   FIG. 9 is a flowchart showing an outline of processing of the lightness / saturation adjusting unit 413. The lightness / saturation adjustment unit 413 first converts the input image into a YCC signal, and generates a luminance image Y consisting only of luminance components (S301). In the following description, the position of each pixel constituting the image is represented by (x, y), and the value of the pixel at the position (x, y) of the image I is represented by I (x, y). .

続いて、輝度画像Yに対し画像処理フィルタを用いたぼかし処理を施して輝度ボケ画像UYを生成する。ぼかし処理は2段階に行う。1段目のぼかし処理では、画像処理フィルタとして移動平均フィルタを用いる(S302)。2段目のぼかし処理では、画像処理フィルタとしてガウシアンフィルタを用いる。この2段階のぼかし処理により、画像の輝度分布を表す輝度ボケ画像UYを生成する(S303)。   Subsequently, the brightness image YY is generated by performing a blurring process using an image processing filter on the brightness image Y. The blurring process is performed in two stages. In the first stage blurring process, a moving average filter is used as an image processing filter (S302). In the second stage blurring process, a Gaussian filter is used as an image processing filter. By this two-stage blurring process, a luminance blur image UY representing the luminance distribution of the image is generated (S303).

次に、明彩度調整部413は、明るさの調整度合いを表す明るさ調整分を決定する(S304)。明るさ調整分は、輝度ボケ画像UYの各画素値をルックアップテーブルLUTyにより変換することによって、画素ごとに決定する。   Next, the lightness / saturation adjustment unit 413 determines a brightness adjustment amount indicating the degree of brightness adjustment (S304). The brightness adjustment is determined for each pixel by converting each pixel value of the luminance blurred image UY using the lookup table LUTy.

LUTyは、0〜1023の範囲の入力値と、0〜1023の範囲の出力値との対応付けを記憶した1次元のルックアップテーブルである。LUTyとしては、例えば、図10に示すように、入力値が所定値を超えると出力値が0になるようなテーブルを使用する。なお、図10は、入力値と出力値の対応付けを、入力値を横軸、出力値を縦軸として表現したものである。   The LUTy is a one-dimensional lookup table that stores associations between input values in the range of 0 to 1023 and output values in the range of 0 to 1023. As the LUTy, for example, as shown in FIG. 10, a table is used in which the output value becomes 0 when the input value exceeds a predetermined value. FIG. 10 represents the association between the input value and the output value with the input value as the horizontal axis and the output value as the vertical axis.

なお、LUTyは、明るさの調整方針に基づいて適宜設計すればよい。例えば図10に例示したテーブルは、暗い部分を明るくして明るい部分はそのままにするという調整方針に基づいて設計されたテーブルであるが、暗い部分を大幅に明るくし明るい部分は少しだけ明るくする、あるいは明るい部分の明るさを少し抑えるなど、調整方針としては種々考えられる。なお、LUTyは、図2のメモリ43に記憶されており、図4を参照して説明した手順でマイコン42から明彩度調整部413に供給される。   The LUTy may be appropriately designed based on the brightness adjustment policy. For example, the table illustrated in FIG. 10 is a table designed based on an adjustment policy of brightening a dark part and leaving a bright part as it is. However, the dark part is significantly brightened and the bright part is slightly brightened. Alternatively, various adjustment policies are conceivable, such as slightly reducing the brightness of bright areas. Note that the LUTy is stored in the memory 43 of FIG. 2, and is supplied from the microcomputer 42 to the lightness / saturation adjustment unit 413 in the procedure described with reference to FIG.

次に、明るさ調整分における明度寄与分と彩度寄与分の配分を決める(S305)。この配分は、画像を構成する画素ごとに決める。具体的には、次式により、明度寄与分rate1と、彩度寄与分rate2を決定する。
Yp(x,y) = Y(x,y)+ LUTy(UY(x,y))
rate1(x,y) = LUTy(UY(x,y))×LUTr(Yp)
rate2(x,y) = LUTy(UY(x,y))×(1−LUTr(Yp))
但し、Ypは、輝度ボケ画像UYから得られる輝度情報のみに基づいて調整を行った場合の、各画素の輝度値を推定した値である。
Next, distribution of brightness contribution and saturation contribution in the brightness adjustment is determined (S305). This distribution is determined for each pixel constituting the image. Specifically, the lightness contribution rate 1 and the saturation contribution rate 2 are determined by the following equations.
Yp (x, y) = Y (x, y) + LUTy (UY (x, y))
rate1 (x, y) = LUTy (UY (x, y)) × LUTr (Yp)
rate2 (x, y) = LUTy (UY (x, y)) × (1-LUTr (Yp))
However, Yp is a value obtained by estimating the luminance value of each pixel when adjustment is performed based only on luminance information obtained from the luminance blurred image UY.

LUTrは、例えば図11に示すように、入力値が所定値以下のときと所定値以上のときに出力値がほぼ一定になり、入力値がそれ以外の部分では出力値が入力値の増加とともに増加するようなテーブルとする。このテーブルは、暗い領域で彩度調整機能を特に効かせるという方針に基づいて設計されたテーブルである。LUTrも、LUTyと同様、調整方針に基づいて適宜設計すればよい。LUTrも、図2のメモリ43に記憶されており、図4を参照して説明した手順でマイコン42から明彩度調整部413に供給される。   For example, as shown in FIG. 11, the output value of the LUTr is almost constant when the input value is equal to or lower than the predetermined value and when the input value is equal to or higher than the predetermined value. Increase the table. This table is a table designed based on a policy that the saturation adjustment function is particularly effective in a dark region. The LUTr may be appropriately designed based on the adjustment policy, similar to the LUTy. The LUTr is also stored in the memory 43 of FIG. 2, and is supplied from the microcomputer 42 to the lightness / saturation adjustment unit 413 in the procedure described with reference to FIG.

上記式から明らかであるように、rate1(x,y)とrate2(x,y)は、その合計が、ステップS304で決定した明るさ調整分LUTy(UY(x,y))となるように決定される。また、rate1(x,y)とrate2(x,y)の配分は、推定された輝度値に依存する。これは、LUTyによる変換で、明るさをどの程度調整するか調整量を決め、次に、その決められた量の中で彩度調整をどの程度効かせるかを決めるということである。さらには、彩度調整をどの程度効かせるかを決める際に、もし彩度を調整せずに明度のみを調整したらどうなるか推定した値を参考にするということである。   As is apparent from the above equation, the sum of rate1 (x, y) and rate2 (x, y) is the brightness adjustment amount LUTy (UY (x, y)) determined in step S304. It is determined. The distribution of rate1 (x, y) and rate2 (x, y) depends on the estimated luminance value. This is to determine how much the brightness is adjusted by conversion by LUTy, and then to determine how much the saturation adjustment is to be applied within the determined amount. Furthermore, when deciding how much saturation adjustment should be applied, the estimated value of what happens if only the brightness is adjusted without adjusting the saturation is referred to.

次に、明彩度調整部413は、次式にしたがって、入力信号を構成する各画素(x,y)のRGB値に対し、そのRGB値に彩度寄与分に応じた重み付けをした彩度調整値と、輝度画像の画素値に明度寄与分に応じた重み付けをした明度調整値とを加算する(S306)。
R´(x,y)=R(x,y)+Y(x,y)×rate1+R(x,y)×rate2
G´(x,y)=G(x,y)+Y(x,y)×rate1+G(x,y)×rate2
B´(x,y)=B(x,y)+Y(x,y)×rate1+B(x,y)×rate2
Next, the lightness / saturation adjustment unit 413 performs saturation on the RGB values of each pixel (x, y) constituting the input signal according to the following formula, by weighting the RGB values according to the saturation contribution. The adjustment value and the brightness adjustment value weighted according to the brightness contribution to the pixel value of the luminance image are added (S306).
R ′ (x, y) = R (x, y) + Y (x, y) × rate1 + R (x, y) × rate2
G ′ (x, y) = G (x, y) + Y (x, y) × rate1 + G (x, y) × rate2
B ′ (x, y) = B (x, y) + Y (x, y) × rate1 + B (x, y) × rate2

あるいは、明度調整値は、輝度ボケ画像の画素値に明度寄与分に応じた重み付けをした値としてもよい。すなわち、ステップS306では、次式にしたがった処理を実行してもよい。
R´(x,y)=R(x,y)+UY(x,y)×rate1+R(x,y)×rate2
G´(x,y)=G(x,y)+UY(x,y)×rate1+G(x,y)×rate2
B´(x,y)=B(x,y)+UY(x,y)×rate1+B(x,y)×rate2
Alternatively, the lightness adjustment value may be a value obtained by weighting the pixel value of the luminance blurred image according to the lightness contribution. That is, in step S306, processing according to the following equation may be executed.
R ′ (x, y) = R (x, y) + UY (x, y) × rate1 + R (x, y) × rate2
G ′ (x, y) = G (x, y) + UY (x, y) × rate1 + G (x, y) × rate2
B ′ (x, y) = B (x, y) + UY (x, y) × rate1 + B (x, y) × rate2

上記処理式を用いた明るさの調整処理では、輝度を調整するだけでなく、彩度を合わせて調整しているため、自然な色合いの、違和感の少ない画像が得られる。例えば図10および図11に例示したルックアップテーブルを使用した処理では、暗い部分で特に丁寧な彩度調整が行われるので、暗い部分の細かい構造まで見易く再現される。また、例えば暗い部分は診断に不必要なのでそのままとし、診断に必要な領域で細かい構造が見やすく再現されるようにルックアップテーブルを設計することもできる。すなわち、目的に適した方法で、その目的に適した量だけ明るさを調整することができる。   In the brightness adjustment process using the above processing formula, not only the brightness is adjusted, but also the saturation is adjusted, so that an image with a natural hue and a little uncomfortable feeling can be obtained. For example, in the process using the look-up table illustrated in FIGS. 10 and 11, particularly careful saturation adjustment is performed in a dark part, so that even a fine structure in a dark part can be reproduced easily. In addition, for example, a dark part is unnecessary for diagnosis and can be left as it is, and a look-up table can be designed so that a fine structure can be easily reproduced in an area necessary for diagnosis. That is, the brightness can be adjusted by an amount suitable for the purpose by a method suitable for the purpose.

ここで、ステップS302およびS303のぼかし処理について、さらに説明する。   Here, the blurring process in steps S302 and S303 will be further described.

画像を構成する各画素の値を、画像処理フィルタを用いた演算により求められた値と置き換えることによって、その画像のボケ画像を生成する手法は、従来から知られている。そのようなボケ画像生成処理では、通常、3×3画素〜15×15画素程度の大きさの画像処理フィルタが演算に使用される。これに対し、明彩度調整部413は、画像の幅の1/4もしくはそれ以上の幅を有する画像処理フィルタを用いて演算を行う。例えば画像の幅が1024画素であった場合には、255×255画素もしくはそれより大きなサイズの画像処理フィルタを用いる。   A method for generating a blurred image of an image by replacing the value of each pixel constituting the image with a value obtained by calculation using an image processing filter has been conventionally known. In such a blurred image generation process, an image processing filter having a size of about 3 × 3 pixels to 15 × 15 pixels is usually used for calculation. On the other hand, the lightness / saturation adjusting unit 413 performs an operation using an image processing filter having a width equal to or larger than 1/4 of the width of the image. For example, when the width of the image is 1024 pixels, an image processing filter having a size of 255 × 255 pixels or larger is used.

図12は、画像処理フィルタの大きさと処理結果の関係について説明するための図である。図12(a)は通常の画像処理の例、図12(b)は明彩度調整部413の画像処理の例を示している。   FIG. 12 is a diagram for explaining the relationship between the size of the image processing filter and the processing result. FIG. 12A shows an example of normal image processing, and FIG. 12B shows an example of image processing of the lightness / saturation adjustment unit 413.

図12(a)に例示するように3×3画素の画像処理フィルタを用いた場合、各画素の値は9個の画素の値に依存することとなる。一方、図12(b)に示すように255×255画素の画像処理フィルタを用いた場合、各画素の値は、255個の画素の値に依存することとなる。 When a 3 × 3 pixel image processing filter is used as illustrated in FIG. 12A, the value of each pixel depends on the value of nine pixels. On the other hand, in the case of using the image processing filter 255 × 255 pixels as shown in FIG. 12 (b), the value of each pixel, will depend on the value of the 255 two pixels.

明暗差が大きい画像の明るさを調整するときには、単に暗い部分を明るくすればよいというものではなく、不自然にならない程度に明暗の差を残さなければならない。すなわち、画像全体の明るさのバランスは崩さずに、暗い部分を明るくする必要がある。そのためには、近接する画素の値のみをみて明るさを決定するのではなく、遠くの画素の値もみた上で明るさを決定する必要がある。   When adjusting the brightness of an image with a large difference in brightness, it is not just that the dark part needs to be brightened, but the difference in brightness must be left to the extent that it does not become unnatural. That is, it is necessary to brighten the dark part without breaking the balance of the brightness of the entire image. For this purpose, it is necessary to determine the brightness based on the values of distant pixels rather than determining the brightness only by looking at the values of adjacent pixels.

例えば図12(a)に例示したような小さな画像処理フィルタを用いて生成された輝度ボケ画像の各画素値は、100画素以上離れた画素の値とは無関係に決定される。このため、その100画素以上離れた画素との間で明暗が逆転する可能性がないとはいえない。   For example, each pixel value of a luminance blurred image generated using a small image processing filter as illustrated in FIG. 12A is determined regardless of the values of pixels that are separated by 100 pixels or more. For this reason, it cannot be said that there is no possibility that the lightness and darkness is reversed between the pixels separated by 100 pixels or more.

これに対し、図12(a)に例示したような大きな画像処理フィルタを用いて生成された輝度ボケ画像の各画素値は、100画素以上離れた画素の値を参照した上で決定される。したがって、100画素以上離れた画素との間で明暗が逆転するということは有り得ず、画像全体の明暗のバランスがくずれることはない。   On the other hand, each pixel value of a luminance blurred image generated using a large image processing filter as illustrated in FIG. 12A is determined with reference to the values of pixels separated by 100 pixels or more. Therefore, it is impossible for light and dark to be reversed between pixels that are separated by 100 pixels or more, and the balance of light and dark of the entire image will not be lost.

明彩度調整部413の処理では、推定輝度の計算や、明度寄与分、彩度寄与分の決定には、この画像全体の明暗のバランスが忠実に反映された輝度ボケ画像UYが使用されるので、調整後の画像は、明暗のバランスが維持された自然な画像となる。   In the process of the lightness / saturation adjustment unit 413, the brightness blur image UY that faithfully reflects the balance of lightness and darkness of the entire image is used for calculation of the estimated brightness and determination of the lightness contribution and saturation contribution. Therefore, the image after adjustment is a natural image in which the balance between light and dark is maintained.

ここで、画像処理フィルタのサイズが大きければ、当然のことながら演算量は多くなる。しかし、電子内視鏡の画像処理は、レントゲン装置の画像処理などと異なりリアルタイム性が要求されるため、処理時間が長くなることは好ましくない。   Here, if the size of the image processing filter is large, as a matter of course, the amount of calculation increases. However, since the image processing of the electronic endoscope requires real-time characteristics unlike the image processing of the X-ray apparatus, it is not preferable that the processing time becomes long.

そこで、明彩度調整部413では、ステップS302の1段目のぼかし処理を行うときに、縦横それぞれ数画素おきにフィルタを配置して演算を行うことによって、演算量を低減している。例えば3画素おきに演算を実行すれば、演算量を、全画素を対象として演算を実行する場合の1/9に低減することができ、処理時間を短縮できる。   Therefore, the lightness / saturation adjusting unit 413 reduces the amount of calculation by performing the calculation by arranging filters every several pixels in the vertical and horizontal directions when performing the first blurring process in step S302. For example, if the calculation is executed every three pixels, the calculation amount can be reduced to 1/9 that of the calculation for all the pixels, and the processing time can be shortened.

なお、ステップS303の2段目のぼかし処理でも同様に数画素おきに演算を行ってもよいが、ガウシアンフィルタを用いた演算では数画素おきの演算ではアーティファクトが発生するおそれがあるため、好ましくは1段目のぼかし処理は数画素ごと、2段目のぼかし処理は全画素を対象として演算を行うのがよい。   In the second stage blurring process in step S303, the calculation may be performed every several pixels in the same manner. However, in the calculation using the Gaussian filter, an artifact may occur in the calculation every several pixels. The first-stage blurring process is preferably performed for every several pixels, and the second-stage blurring process is performed for all pixels.

2.4 シャープネス調整部
シャープネス調整部414は、主として画像のシャープネスを強調することを目的とした画像処理を行う。但し、内視鏡画像には鋭いエッジは含まれていないため、主として凹凸や血管など観察対象の構造を強調することを目的とした処理を行う。
2.4 Sharpness Adjustment Unit The sharpness adjustment unit 414 performs image processing mainly for the purpose of enhancing the sharpness of an image. However, since the endoscopic image does not include a sharp edge, processing mainly for enhancing the structure of the observation target such as unevenness and blood vessels is performed.

例えば、胃の粘膜の下に何らかの隆起物ができた場合、細い血管は渦巻状になり、太い血管は湾曲する。このため、血管の形状変化の観察は、隠れた病変を見つけ出す上で極めて有効である。しかし、胃の内部は全体的に似通った色をしているため、画像の周波数成分に基づいて血管を区別しようとすると太い血管と隆起物の影とを区別することができない。   For example, if any protuberance is formed under the stomach mucosa, the thin blood vessels are spiraled and the thick blood vessels are curved. For this reason, the observation of the change in the shape of the blood vessel is extremely effective in finding a hidden lesion. However, since the inside of the stomach has a similar color as a whole, when trying to distinguish blood vessels based on the frequency components of the image, it is not possible to distinguish between thick blood vessels and shadows of raised objects.

このため、シャープネス調整部414では、画像の色味を考慮に入れたシャープネス調整処理を実行する。   For this reason, the sharpness adjustment unit 414 executes a sharpness adjustment process in consideration of the color of the image.

図13は、シャープネス調整部414の処理の概要を示すフローチャートである。   FIG. 13 is a flowchart showing an outline of processing of the sharpness adjustment unit 414.

シャープネス調整部414では、はじめに入力画像をYCC信号に変換し、輝度成分のみからなる輝度画像Y(x,y)を生成する(S401)。   The sharpness adjustment unit 414 first converts the input image into a YCC signal, and generates a luminance image Y (x, y) consisting only of luminance components (S401).

続いて、その輝度画像Y(x,y)に対し、画像処理フィルタを用いたぼかし処理を施して輝度ボケ画像U(Y(x,y))を生成する。ぼかし処理は2段階に行う。1段目のぼかし処理では、画像処理フィルタとして移動平均フィルタを用いる(S402)。フィルタは、あまり小さすぎると胃壁の凹凸など比較的大きな構造の情報が含まれなくなるので、80×80画素程度の大きさとする。また、ステップS402では、明彩度調整部413のステップS302と同様、計算量が少なくなるように数画素おきに演算を実行する。   Subsequently, the luminance image Y (x, y) is subjected to a blurring process using an image processing filter to generate a luminance blurred image U (Y (x, y)). The blurring process is performed in two stages. In the first stage blurring process, a moving average filter is used as an image processing filter (S402). If the filter is too small, information of a relatively large structure such as the unevenness of the stomach wall is not included, so the size is about 80 × 80 pixels. In step S402, similarly to step S302 of the lightness / saturation adjustment unit 413, calculation is executed every several pixels so that the calculation amount is reduced.

2段目のぼかし処理では、画像処理フィルタとしてガウシアンフィルタを用いる(S403)。ガウシアンフィルタは、標準偏差が異なる3種類のフィルタを使用する。   In the second-stage blurring process, a Gaussian filter is used as an image processing filter (S403). The Gaussian filter uses three types of filters with different standard deviations.

図14(a)、(b)および(c)は、3種類のガウシアンフィルタを表す。図の横軸は画像処理フィルタの中心画素の位置を0とした各画素の位置、縦軸はフィルタを構成する各画素の値を表す。図14(a)は、大きさが79×79画素の3種類の中で標準偏差が最も大きいフィルタである。このフィルタにより、臓器内壁の凹凸や動脈など比較的大きな構造の情報が抽出される。また、図14(b)は、大きさが15×15画素程度で図14(a)のフィルタよりも標準偏差が小さいフィルタである。このフィルタにより標準的な太さの血管など中くらいの大きさの構造の情報が抽出される。図14(c)は、大きさが3×3画素程度で、図14(b)のフィルタよりもさらに標準偏差が小さいフィルタである。このフィルタにより毛細血管など細かい構造の情報が抽出される。   14A, 14B and 14C show three types of Gaussian filters. In the figure, the horizontal axis represents the position of each pixel with the position of the center pixel of the image processing filter being 0, and the vertical axis represents the value of each pixel constituting the filter. FIG. 14A shows a filter having the largest standard deviation among the three types having a size of 79 × 79 pixels. With this filter, information on relatively large structures such as irregularities on the inner wall of the organ and arteries is extracted. FIG. 14B is a filter having a size of about 15 × 15 pixels and a standard deviation smaller than that of the filter of FIG. This filter extracts medium-sized structure information such as a standard-sized blood vessel. FIG. 14C shows a filter having a size of about 3 × 3 pixels and a smaller standard deviation than the filter shown in FIG. This filter extracts information on fine structures such as capillaries.

ステップS403において、強調したい構造の大きさに応じて標準偏差が設定されたガウシアンフィルタを使用すれば、強調したい構造を区別するのに十分な画像情報が残された輝度ボケ画像UYを生成することができる。   In step S403, if a Gaussian filter having a standard deviation set according to the size of the structure to be enhanced is used, a luminance blurred image UY in which image information sufficient to distinguish the structure to be enhanced is left is generated. Can do.

なお、2段目のぼかし処理では、3種類のガウシアンフィルタを用いて3段階に演算を行ってもよいが、処理時間を短縮するためには、3種類のガウシアンフィルタを重ね合わせた(機能を兼ね備えた)画像処理フィルタを用いて演算を行うのがよい。   In the second-stage blurring process, three types of computations may be performed using three types of Gaussian filters. However, in order to shorten the processing time, three types of Gaussian filters are superimposed (function It is preferable to perform the calculation using an image processing filter (also provided).

シャープネス調整部414は、輝度ボケ画像UYを生成すると、続いて次式により、輝度画像Yと輝度ボケ画像UYの値の差分を画素ごとに計算し、その差分の値に応じてシャープネス強調量C(x,y)を決定する(ステップS404)。
C(x,y)=|Y(x,y)−UY(x,y)|×LUTy(UY(x,y))
ルックアップテーブルLUTyは、明彩度調整部413が使用するルックアップテーブルLUTyと同じテーブルとしてもよいし、他の調整方針に基づいて設計されたテーブルとしてもよい。
When the sharpness adjustment unit 414 generates the brightness blur image UY, the sharpness enhancement amount C is calculated by calculating the difference between the values of the brightness image Y and the brightness blur image UY for each pixel by the following equation. (X, y) is determined (step S404).
C (x, y) = | Y (x, y) −UY (x, y) | × LUTy (UY (x, y))
The lookup table LUTy may be the same table as the lookup table LUTy used by the lightness / saturation adjustment unit 413, or may be a table designed based on another adjustment policy.

一般のシャープネス強調処理では、入力された画像の各画素値に上記シャープネス強調量C(x,y)を単純に加算することによりシャープネスを強調する。これに対し、シャープネス調整部414の処理では、色に依存する色別強調量Cr(x,y)、Cg(x,y)、Cb(x,y)を求め(S405)、その色別強調量を入力された画像の各画素値に加算することによりシャープネスを強調する。   In general sharpness enhancement processing, sharpness is enhanced by simply adding the sharpness enhancement amount C (x, y) to each pixel value of an input image. On the other hand, in the processing of the sharpness adjustment unit 414, the color-dependent enhancement amounts Cr (x, y), Cg (x, y), and Cb (x, y) depending on the color are obtained (S405), and the color-specific enhancement is performed. Sharpness is enhanced by adding the amount to each pixel value of the input image.

色別強調量は次のような手順で計算される。まず次式に基づいて、シャープネス強調における明度調整の寄与分を表す明度寄与分rate3と、シャープネス強調における彩度調整の寄与分を表す彩度寄与分rate4を、決定する。
rate3=LUTc(Y(x,y))×C(x,y)
rate4={1−LUTc(Y(x,y))}×C(x,y)
The amount of enhancement for each color is calculated by the following procedure. First, based on the following equation, a lightness contribution rate 3 representing the contribution of lightness adjustment in sharpness enhancement and a saturation contribution rate 4 representing the contribution of saturation adjustment in sharpness enhancement are determined.
rate3 = LUTc (Y (x, y)) × C (x, y)
rate4 = {1-LUTc (Y (x, y))} × C (x, y)

上記式から明らかであるように、明度寄与分と彩度寄与分は、その合計がステップS404で求めたシャープネス強調量となるように決定される。LUTcは、明度寄与分と彩度寄与分の配分を決定するテーブルであり、目標とする画質に応じて適宜定義することができる。   As is clear from the above equation, the lightness contribution and the saturation contribution are determined so that the sum thereof is the sharpness enhancement amount obtained in step S404. The LUTc is a table that determines the distribution of lightness contribution and saturation contribution, and can be appropriately defined according to the target image quality.

続いて、次式により色別強調量を決定する。
Cr(x,y)=Y(x,y)×rate3+R(x,y)×rate4
Cg(x,y)=Y(x,y)×rate3+G(x,y)×rate4
Cb(x,y)=Y(x,y)×rate3+B(x,y)×rate4
Subsequently, the emphasis amount for each color is determined by the following equation.
Cr (x, y) = Y (x, y) × rate3 + R (x, y) × rate4
Cg (x, y) = Y (x, y) × rate3 + G (x, y) × rate4
Cb (x, y) = Y (x, y) × rate3 + B (x, y) × rate4

あるいは、色別強調量は、次式を用いて決定してもよい。
Cr(x,y)=C(x,y)×R(x,y)/Y(x,y)
Cg(x,y)=C(x,y)×G(x,y)/Y(x,y)
Cb(x,y)=C(x,y)×B(x,y)/Y(x,y)
Alternatively, the color enhancement amount may be determined using the following equation.
Cr (x, y) = C (x, y) × R (x, y) / Y (x, y)
Cg (x, y) = C (x, y) × G (x, y) / Y (x, y)
Cb (x, y) = C (x, y) × B (x, y) / Y (x, y)

続いて、上記2式のいずれかを用いて計算した色別強調量を、次式に示すように入力信号に加算にすることにより、シャープネスを強調する(S406)。
R´(x,y)=R(x,y)+Cr(x,y)
G´(x,y)=G(x,y)+Cg(x,y)
B´(x,y)=B(x,y)+Cb(x,y)
Next, the sharpness is enhanced by adding the color-specific enhancement amount calculated using either of the above two formulas to the input signal as shown in the following formula (S406).
R ′ (x, y) = R (x, y) + Cr (x, y)
G ′ (x, y) = G (x, y) + Cg (x, y)
B ′ (x, y) = B (x, y) + Cb (x, y)

色別強調量の加算によりシャープネスを強調すれば、色味に応じたシャープネス強調を実現することができる。この場合、太い血管と隆起物の陰とでは強調される色味成分が異なるため、影が血管と誤認されることはなくなる。   If sharpness is enhanced by adding the amount of enhancement for each color, it is possible to realize sharpness enhancement according to the color. In this case, since the emphasized color component is different between the thick blood vessel and the shadow of the raised object, the shadow is not mistaken for the blood vessel.

なお、上記説明から明らかであるように、明彩度調整部413とシャープネス調整部414は、いずれも輝度ボケ画像を生成し、処理に利用する。よって、図2のセレクタ417aの前段に、輝度ボケ画像を生成する処理部を備え、その処理部により生成された輝度ボケ画像が、明彩度調整部413やシャープネス調整部414に入力されるようにしてもよい。この場合、輝度ボケ画像の生成に使用する画像処理フィルタは、2種類の機能を兼ね備えたフィルタとする。   As is clear from the above description, the brightness / saturation adjustment unit 413 and the sharpness adjustment unit 414 both generate a luminance blurred image and use it for processing. Therefore, a processing unit that generates a luminance blur image is provided in the preceding stage of the selector 417a in FIG. 2, and the luminance blur image generated by the processing unit is input to the lightness / saturation adjustment unit 413 and the sharpness adjustment unit 414. It may be. In this case, the image processing filter used for generating the luminance blurred image is a filter having two types of functions.

なお、シャープネス調整部414が使用するルックアップテーブルや画像処理フィルタは、図2のメモリ43に記憶されており、図4を参照して説明した手順でマイコン42からシャープネス調整部414に供給される。   Note that the look-up table and the image processing filter used by the sharpness adjustment unit 414 are stored in the memory 43 of FIG. 2, and are supplied from the microcomputer 42 to the sharpness adjustment unit 414 in the procedure described with reference to FIG. .

2.5 色相調整部
色相調整部415は、診断に必要な色相を拡大し、診断に不要な色相を縮小する画像処理を行う。
2.5 Hue Adjustment Unit The hue adjustment unit 415 performs image processing for enlarging a hue necessary for diagnosis and reducing a hue unnecessary for diagnosis.

内視鏡検査では、色素を含む検査薬を散布して観察を行うことがある。例えば、胃の内壁にインジゴカルミンと呼ばれる濃青色の検査薬を散布すると、粘膜面の谷間に検査薬が貯留するので、胃壁の凹凸を赤と青の色のコントラストとして観察できるようになる。また、メチレンブルーと呼ばれる同じく濃青色の検査薬を散布した場合、正常な粘膜は青く染まるが、腫瘍は染まらない。このため、腫瘍の有無および場所を確認することができる。   In endoscopy, observation may be performed by spraying a test drug containing a pigment. For example, when a deep blue test drug called indigo carmine is sprayed on the inner wall of the stomach, the test drug accumulates in the valleys of the mucosal surface, so that the unevenness of the stomach wall can be observed as a contrast between red and blue colors. In addition, when spraying a deep blue test agent called methylene blue, the normal mucous membrane is stained blue, but the tumor is not stained. Therefore, the presence and location of the tumor can be confirmed.

一方、そのような検査では、肌の色合いが部分ごとに少しずつ違うといった情報は、診断には不要である。   On the other hand, in such examinations, information that the skin tone is slightly different for each part is not necessary for diagnosis.

図15は、色相調整部415の処理の概要を示すフローチャートである。色相調整部415では、まずRGB信号をHSV信号に変換して色相成分のみを抽出ことによって、色相分布を表す色相画像を生成する(S501)。続いて、色相画像を構成する各画素の値H(x,y)を、ルックアップテーブルLUThを用いて変換する(S502)。   FIG. 15 is a flowchart showing an outline of processing of the hue adjustment unit 415. The hue adjustment unit 415 first generates a hue image representing a hue distribution by converting the RGB signal into an HSV signal and extracting only the hue component (S501). Subsequently, the value H (x, y) of each pixel constituting the hue image is converted using the lookup table LUTh (S502).

LUThは、診断に必要な色の範囲で色相が拡大され、診断に不要な色の範囲で色相が狭くなるように設計されたテーブルである。   The LUTh is a table designed so that the hue is expanded in the color range necessary for diagnosis and the hue is narrowed in the color range unnecessary for diagnosis.

例えば、図16に例示するLUThによれば、青紫色が、より青に近い色に置き換えられる。このLUThを用いて画像を処理すれば、青紫色の検査薬を散布して撮影を行った場合に検査薬が付着している部分と付着していない肌の部分の色のコントラストを大きくすることができる。また、図16のLUThによれば、赤からピンクにかけての色は、すべて同じピンクに置き換えられる。このため、このLUThを用いて画像を処理すれば、肌の赤みの微妙な差は、画像には表れなくなる。   For example, according to LUTh illustrated in FIG. 16, blue-violet is replaced with a color closer to blue. If the image is processed using this LUTh, the color contrast between the part where the test drug is attached and the part of the skin where the test drug is not attached will be increased when shooting is performed by spraying a blue-violet test drug. Can do. Further, according to the LUTh in FIG. 16, all the colors from red to pink are replaced with the same pink. For this reason, if an image is processed using this LUTh, a subtle difference in skin redness does not appear in the image.

また、図17に例示するLUThは、ヘモグロビンの色素の色のみを緑色に置き換え、他の色の置き換えは行わないテーブルである。このテーブルは、血液の色と肌の色との差を拡大して、血流の観察に適した画像を生成することを目的として設計されたものである。   The LUTh illustrated in FIG. 17 is a table in which only the color of the hemoglobin pigment is replaced with green and other colors are not replaced. This table is designed for the purpose of generating an image suitable for blood flow observation by enlarging the difference between the color of blood and the color of skin.

内視鏡画像では、撮影で取得される色の範囲は赤っぽい色に限られており、検査薬の色を除けば、青や緑色の対象が撮影されることは有り得ない。このため、血液の色を緑色にするといった置換を行っても、緑色に置換したことによって他の緑色の対象と区別がつかなくなるといった心配はない。したがって、内視鏡の画像処理では、図17に例示するような極端な色相拡大処理を行うこともできる。   In the endoscopic image, the range of colors acquired by photographing is limited to a reddish color, and a blue or green target cannot be photographed except for the color of the test agent. For this reason, even if the replacement is performed such that the color of the blood is changed to green, there is no concern that the replacement with green does not make it indistinguishable from other green objects. Therefore, in the endoscope image processing, it is possible to perform an extreme hue enlargement process as exemplified in FIG.

色相調整部415は、ステップS502においてLUThを用いて色を置き換えることにより色相を拡大したり縮小したりした後、LUThによる変換後の色相データH´(x,y)を色相成分とするHSV信号をRGB信号に変換する(S503)。   In step S502, the hue adjustment unit 415 expands or reduces the hue by replacing the color using the LUTh, and then uses the hue data H ′ (x, y) converted by the LUTh as an hue component HSV signal. Are converted into RGB signals (S503).

LUThとしては、ユーザである医師の考え方、内視鏡メーカーの設計方針、使用される検査薬の種類、観察される部位、観察の目的などに応じて設計された複数のテーブルを用意しておくことが好ましい。このテーブルは、電子内視鏡システム1を提供するメーカーが提供してもよいし、ユーザが自ら作成することもできる。LUThは、図2のメモリ43に記憶されており、図4を参照して説明した手順でマイコン42から色相調整部415に供給される。   As LUTh, a plurality of tables designed in accordance with the concept of the doctor who is the user, the design policy of the endoscope manufacturer, the type of test agent used, the site to be observed, the purpose of observation, etc. are prepared. It is preferable. This table may be provided by the manufacturer that provides the electronic endoscope system 1 or may be created by the user himself / herself. The LUTh is stored in the memory 43 of FIG. 2, and is supplied from the microcomputer 42 to the hue adjustment unit 415 in the procedure described with reference to FIG.

なお、上記例ではHSV空間において色相調整を行っているが、RGB信号をLab信号に変換して、a成分とb成分をルックアップテーブルにより変換した後にRGB信号に戻してもよい。   In the above example, the hue adjustment is performed in the HSV space. However, the RGB signal may be converted into the Lab signal, and the a component and the b component may be converted by the lookup table and then returned to the RGB signal.

また、他の色空間への変換は行わずに、標準画像生成部411や色置換部412と同様に3次元LUTを用意しておき、入力されたRGB信号を、色相調整後のRGB信号に直接置き換えるようにしてもよい。   Further, a 3D LUT is prepared in the same manner as the standard image generation unit 411 and the color replacement unit 412 without performing conversion to another color space, and the input RGB signal is converted into an RGB signal after hue adjustment. You may make it replace directly.

以上、本発明の一実施形態について詳細に説明したが、本発明の範囲は特許請求の範囲によって定められるべきものであり、上記実施形態には限定されない。   As mentioned above, although one Embodiment of this invention was described in detail, the scope of the present invention should be defined by a claim, and is not limited to the said embodiment.

電子内視鏡システムの概略構成を示す図The figure which shows schematic structure of an electronic endoscope system 画像処理専用基板の詳細構成を示す図The figure which shows the detailed constitution of the image processing exclusive substrate マイコン32が実行する初期化処理の概要を示すフローチャートThe flowchart which shows the outline | summary of the initialization process which the microcomputer 32 performs マイコン42の処理の概要を示すフローチャートA flowchart showing an outline of processing of the microcomputer 42 データを10ビット化する処理について説明するための図The figure for demonstrating the process which converts data into 10 bits 標準画像生成部で使用される3次元ルックアップテーブルの一例を示す図The figure which shows an example of the three-dimensional lookup table used in a standard image generation part 標準画像生成部で使用される3次元ルックアップテーブルの他の例を示す図The figure which shows the other example of the three-dimensional lookup table used with a standard image generation part ルックアップテーブルに無い値の処理方法について説明するための図The figure for explaining the processing method of the value which is not in the lookup table 明彩度調整部の処理の概要を示すフローチャートFlow chart showing an outline of processing of the lightness and saturation adjustment unit 明彩度調整部で使用されるルックアップテーブルLUTyの一例を示す図The figure which shows an example of the look-up table LUTy used by the brightness saturation adjustment part. 明彩度調整部で使用されるルックアップテーブルLUTrの一例を示す図The figure which shows an example of the look-up table LUTr used in the brightness saturation adjustment part. 画像処理フィルタの大きさと処理結果の関係について説明するための図The figure for demonstrating the relationship between the magnitude | size of an image processing filter, and a processing result シャープネス調整部の処理の概要を示すフローチャートFlow chart showing an outline of processing of the sharpness adjustment unit シャープネス調整部で使用されるガウシアンフィルタの例を示す図The figure which shows the example of the Gaussian filter used in a sharpness adjustment part 色相調整部の処理の概要を示すフローチャートFlow chart showing an outline of processing of the hue adjustment unit 色相調整部で使用されるルックアップテーブルLUThの一例を示す図The figure which shows an example of the lookup table LUTh used by the hue adjustment part 色相調整部で使用されるルックアップテーブルLUThの他の例を示す図The figure which shows the other example of the look-up table LUTh used by the hue adjustment part.

符号の説明Explanation of symbols

1 電子内視鏡システム
2 電子内視鏡(スコープ)
3 処理装置(プロセッサ)
33,34 セレクタ
4 画像処理専用基板
417a〜e セレクタ
5,6 3次元ルックアップテーブル
1 Electronic endoscope system 2 Electronic endoscope (scope)
3 Processing unit (processor)
33, 34 selector
4 Image processing board 417a-e Selectors 5, 6 3D lookup table

Claims (9)

電子内視鏡と該電子内視鏡により取得された画像を処理する処理装置を備えた電子内視鏡装置であって、前記処理装置が、
取得すべき色情報の色空間が相互に異なる複数機種の電子内視鏡を選択的に接続し得る接続部、
観察対象の撮影により電子内視鏡が取得し得る色を表す値と前記観察対象の真の色を表す値との対応付けが記憶された、前記電子内視鏡の機種ごとの複数の置換テーブル、
当該処理装置に接続されている電子内視鏡から該電子内視鏡の機種を表す情報を取得することにより、該電子内視鏡の機種を判別する機種判別手段、
前記機種判別手段により判別された機種用の置換テーブルに記憶された対応付けを利用して当該処理装置に接続されている電子内視鏡により取得された色の値を置き換えることにより、観察対象の真の色を忠実に再現した画像を生成する忠実色再現画像生成手段、
画像処理の内容を規定する設定情報を、内視鏡検査の目的ごとに記憶し得る設定情報記憶手段、および
前記設定情報記憶手段が記憶する設定情報のうち当該処理装置に入力された選択信号に基づいて選択された一の設定情報を参照して、前記忠実色再現画像生成手段により生成された画像の画像処理を行う画像処理手段
を備えたことを特徴とする電子内視鏡装置。
An electronic endoscope apparatus comprising an electronic endoscope and a processing device that processes an image acquired by the electronic endoscope, wherein the processing device includes:
A connection unit that can selectively connect multiple types of electronic endoscopes having different color spaces for color information to be acquired ,
A plurality of replacement tables for each model of the electronic endoscope, in which a correspondence between a value representing a color that can be acquired by the electronic endoscope by photographing the observation target and a value representing the true color of the observation target is stored ,
A model discriminating means for discriminating the model of the electronic endoscope by acquiring information representing the model of the electronic endoscope from the electronic endoscope connected to the processing apparatus;
By replacing the color value acquired by the electronic endoscope connected to the processing device using the association stored in the replacement table for the model determined by the model determining means, Faithful color reproduction image generation means for generating an image faithfully reproducing the true color,
Setting information storage means that can store setting information that defines the contents of image processing for each purpose of endoscopy, and among selection information stored in the setting information storage means, a selection signal input to the processing device An electronic endoscope apparatus comprising image processing means for performing image processing of an image generated by the faithful color reproduction image generation means with reference to one setting information selected based on the setting information.
前記設定情報記憶手段が、前記設定情報を観察部位ごとに記憶し得ることを特徴とする請求項1記載の電子内視鏡装置。   The electronic endoscope apparatus according to claim 1, wherein the setting information storage unit can store the setting information for each observation region. 前記設定情報記憶手段が、前記設定情報を検査に使用する検査薬ごとに記憶し得ることを特徴とする請求項1または2記載の電子内視鏡装置。   The electronic endoscope apparatus according to claim 1, wherein the setting information storage unit can store the setting information for each test drug used for an examination. 前記設定情報記憶手段が、前記設定情報を検査により発見しようとする対象ごとに記憶し得ることを特徴とする請求項1から3のいずれか1項記載の電子内視鏡装置。   The electronic endoscope apparatus according to any one of claims 1 to 3, wherein the setting information storage unit can store the setting information for each target to be discovered by examination. 前記画像処理手段は、異なる画像処理を実行する複数の処理部を備え、
前記設定情報に、前記複数の処理部のうち処理を実行させる1以上の処理部を指定する情報が含まれていることを特徴とする請求項1から4のいずれか1項記載の電子内視鏡装置。
The image processing means includes a plurality of processing units that execute different image processing,
5. The electronic internal view according to claim 1, wherein the setting information includes information specifying one or more processing units that execute processing among the plurality of processing units. 6. Mirror device.
前記複数の処理部のうち一の処理部により実行される処理が、画像の明るさを調整する処理であることを特徴とする請求項5記載の電子内視鏡装置。   6. The electronic endoscope apparatus according to claim 5, wherein the process executed by one of the plurality of processing units is a process of adjusting brightness of an image. 前記複数の処理部のうち一の処理部により実行される処理が、画像のシャープネスを調整する処理であることを特徴とする請求項5または6記載の電子内視鏡装置。   7. The electronic endoscope apparatus according to claim 5, wherein the process executed by one of the plurality of processing units is a process of adjusting the sharpness of the image. 前記複数の処理部のうち一の処理部により実行される処理が、画像の色相を調整する処理であることを特徴とする請求項5から7のいずれか1項記載の電子内視鏡装置。   The electronic endoscope apparatus according to claim 5, wherein the process executed by one of the plurality of processing units is a process of adjusting a hue of an image. 前記画像処理手段により参照されるデータを記憶し得るデータ記憶手段をさらに備え、
前記設定情報に、前記データ記憶手段が記憶しているデータのうち処理に使用する1以上のデータを指定する情報が含まれていることを特徴とする請求項1から8のいずれか1項記載の電子内視鏡装置。
Data storage means capable of storing data referred to by the image processing means;
9. The information according to claim 1, wherein the setting information includes information specifying one or more data to be used for processing among data stored in the data storage unit. Electronic endoscope device.
JP2005305262A 2004-10-20 2005-10-20 Electronic endoscope device Expired - Fee Related JP4933766B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005305262A JP4933766B2 (en) 2004-10-20 2005-10-20 Electronic endoscope device

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2004305023 2004-10-20
JP2004305023 2004-10-20
JP2005305262A JP4933766B2 (en) 2004-10-20 2005-10-20 Electronic endoscope device

Publications (2)

Publication Number Publication Date
JP2006142002A JP2006142002A (en) 2006-06-08
JP4933766B2 true JP4933766B2 (en) 2012-05-16

Family

ID=36622316

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005305262A Expired - Fee Related JP4933766B2 (en) 2004-10-20 2005-10-20 Electronic endoscope device

Country Status (1)

Country Link
JP (1) JP4933766B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5557091B2 (en) * 2010-03-30 2014-07-23 日本電気株式会社 Image processing apparatus, image reading apparatus, image processing method, and image processing program
JP6067264B2 (en) * 2012-07-17 2017-01-25 Hoya株式会社 Image processing apparatus and endoscope apparatus
DE112016000094B4 (en) 2015-08-13 2019-07-11 Hoya Corporation Apparatus for calculating analysis values and electronic endoscope system
DE112016000095B4 (en) 2015-08-13 2019-07-11 Hoya Corporation Apparatus for calculating analysis values and electronic endoscope system
JP6270967B2 (en) * 2016-11-17 2018-01-31 Hoya株式会社 Image processing apparatus and endoscope apparatus
JP6694046B2 (en) * 2018-12-17 2020-05-13 富士フイルム株式会社 Endoscope system
EP3929647A4 (en) * 2019-02-14 2022-11-23 Dai Nippon Printing Co., Ltd. Medical instrument color correction device

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0789672B2 (en) * 1986-05-14 1995-09-27 株式会社東芝 Endoscope device
JP2643948B2 (en) * 1987-08-10 1997-08-25 オリンパス光学工業株式会社 Electronic endoscope device
JPH0783B2 (en) * 1987-03-30 1995-01-11 株式会社東芝 Electronic endoscopic device
JPS6379631A (en) * 1987-08-07 1988-04-09 オリンパス光学工業株式会社 Endoscope imaging apparatus
JPH01113018A (en) * 1987-10-26 1989-05-01 Olympus Optical Co Ltd Endoscopic color enhancement apparatus
JPH06304135A (en) * 1993-04-27 1994-11-01 Olympus Optical Co Ltd Electronic endoscope device
JP2004000335A (en) * 2002-05-31 2004-01-08 Olympus Corp Electronic endoscope apparatus

Also Published As

Publication number Publication date
JP2006142002A (en) 2006-06-08

Similar Documents

Publication Publication Date Title
US7627189B2 (en) Sharpness adjustment method and program and electronic endoscope apparatus
JP3869698B2 (en) Electronic endoscope device
US7042488B2 (en) Electronic endoscope for highlighting blood vessel
JP6420230B2 (en) Endoscope system, processor device, and operation method of endoscope system
JP3217343B2 (en) Image processing device
JP2006061620A (en) Video signal processor for endoscope
JP2007300972A (en) Image processor for endoscope
BRPI0609099A2 (en) biological observation apparatus
WO2017110180A1 (en) Endoscopic system, processor device, and method for operating endoscopic system
JP6196598B2 (en) Endoscope system, processor device, operation method of endoscope system, and operation method of processor device
US7791651B2 (en) Brightness adjustment method and image processing apparatus
JP2017192594A (en) Endoscope system, processor device, and operation method of endoscope system
US8675058B2 (en) Electronic endoscope apparatus
US20060082647A1 (en) Electronic endoscope apparatus
JP4933766B2 (en) Electronic endoscope device
JP5173130B2 (en) Electronic endoscope device
US20220383492A1 (en) Image processing device, endoscope system, and image processing method
JP2010200883A (en) Device, method, and program for processing endoscopic image
JP4606838B2 (en) Electronic endoscope device
JP5079576B2 (en) Electronic endoscope system
JP2006142004A (en) Sharpness adjustment method, program and electronic endoscope apparatus
JP2006142003A (en) Brightness adjustment method, image processing apparatus and image processing program
WO2018079217A1 (en) Endoscopic system and operation method thereof
JP6153913B2 (en) Endoscope system, processor device, operation method of endoscope system, and operation method of processor device
JP4575626B2 (en) Electronic endoscope apparatus and pseudo dye distribution processing apparatus for electronic endoscope

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20061212

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080901

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20100614

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110415

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110419

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110616

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110705

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120214

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120217

R150 Certificate of patent or registration of utility model

Ref document number: 4933766

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150224

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees