JP4933766B2 - Electronic endoscope device - Google Patents
Electronic endoscope device Download PDFInfo
- Publication number
- JP4933766B2 JP4933766B2 JP2005305262A JP2005305262A JP4933766B2 JP 4933766 B2 JP4933766 B2 JP 4933766B2 JP 2005305262 A JP2005305262 A JP 2005305262A JP 2005305262 A JP2005305262 A JP 2005305262A JP 4933766 B2 JP4933766 B2 JP 4933766B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- electronic endoscope
- color
- processing
- setting information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Analysis (AREA)
- Instruments For Viewing The Inside Of Hollow Bodies (AREA)
- Endoscopes (AREA)
- Image Processing (AREA)
Description
本発明は、電子内視鏡装置の画像処理機能に関する。 The present invention relates to an image processing function of an electronic endoscope apparatus.
電子内視鏡装置は、通常、太さや解像度が異なる複数本の電子内視鏡と、撮影により取得された画像をモニタ出力用に処理する処理装置のセットで提供される。このため、処理装置は、一緒に提供されるすべての電子内視鏡について、相応の画質の画像をモニタ出力できる装置でなければならない。 The electronic endoscope apparatus is usually provided as a set of a plurality of electronic endoscopes having different thicknesses and resolutions and a processing apparatus that processes an image acquired by photographing for monitor output. For this reason, the processing apparatus must be an apparatus that can monitor and output an image having an appropriate image quality for all the electronic endoscopes provided together.
このような課題を解決する発明としては、例えば特許文献1に、処理装置側で電子内視鏡のCCDの種類を検知し、CCDの画素数に応じて画像のズーム機能を制限する機能を備えた装置が開示されている。
As an invention for solving such a problem, for example,
また、電子内視鏡装置の処理装置は、通常、画質を向上するための画像処理機能を備えている。特許文献1に開示された装置も、色調調整回路や構造強調回路を備えている。
前述のとおり、既存の電子内視鏡装置では処理装置とともに複数種類の電子内視鏡が提供されてはいるが、電子内視鏡に搭載されるCCD(Charge Coupled Device)は同じメーカーが提供する同じタイプのCCDで、異なるのは解像度のみであった。 As described above, in the existing electronic endoscope apparatus, a plurality of types of electronic endoscopes are provided together with the processing apparatus, but the same manufacturer provides the CCD (Charge Coupled Device) mounted on the electronic endoscope. For the same type of CCD, the only difference was the resolution.
これに対し、出願人らは、電子内視鏡に搭載するCCDとして、メーカーやカラーフィルタの種類が異なるCCDを採用することを検討している。この場合、CCDの色取得方式はそれぞれ異なることになる。 On the other hand, the applicants are considering adopting CCDs with different types of manufacturers and color filters as CCDs mounted on the electronic endoscope. In this case, the CCD color acquisition methods are different.
しかし、特許文献1に開示された装置が、CCDの種類を判定しながら、その結果を色調調整回路で利用していないことからもわかるように、上記背景の下では、CCDの種類に応じて明るさや色味を調整する必要がなかった。また、画素数の調整と比較して、色味の調整には複雑な処理が必要であるため、これまで、そのような機能を備えた電子内視鏡装置が提供されることはなかった。
However, as can be seen from the fact that the apparatus disclosed in
上記事情から、本発明は、CCDの色取得方式に拘わらず、また調整のためにユーザに負担をかけることなく、常に診断に適した高画質の画像をモニタ出力することができる電子内視鏡装置を提供することを課題とする。 In view of the above circumstances, the present invention is an electronic endoscope that can always output a high-quality image suitable for diagnosis regardless of the CCD color acquisition method and without burdening the user for adjustment. It is an object to provide an apparatus.
上記課題を解決するために、本発明は電子内視鏡と、その電子内視鏡により取得された画像を処理する処理装置を備えた電子内視鏡装置であって、処理装置が以下の構成を有する装置を提供する。 In order to solve the above problems, the present invention is an electronic endoscope apparatus including an electronic endoscope and a processing device that processes an image acquired by the electronic endoscope, and the processing device has the following configuration An apparatus is provided.
この処理装置は、色情報の取得方式が異なる複数機種の電子内視鏡を選択的に接続し得る接続部を備える。 This processing apparatus includes a connection unit that can selectively connect a plurality of types of electronic endoscopes having different color information acquisition methods.
また、この処理装置は、観察対象の撮影により電子内視鏡が取得し得る色を表す値と前記観察対象の真の色を表す値との対応付けが記憶された、電子内視鏡の機種ごとの複数の置換テーブルを備える。置換テーブルは処理装置のメモリなどに記憶される。 In addition, this processing apparatus is a model of an electronic endoscope in which a correspondence between a value representing a color that can be acquired by an electronic endoscope by photographing an observation target and a value representing a true color of the observation target is stored. Each is provided with a plurality of replacement tables. The replacement table is stored in the memory of the processing device.
さらに、この処理装置は、その処理装置に接続されている電子内視鏡から電子内視鏡の機種を表す情報を取得することにより、電子内視鏡の機種を判別する機種判別手段を備える。 The processing apparatus further includes a model discriminating unit that discriminates the model of the electronic endoscope by acquiring information representing the model of the electronic endoscope from the electronic endoscope connected to the processing apparatus.
また、機種判別手段により判別された機種用の置換テーブルに記憶された対応付けを利用して処理装置に接続されている電子内視鏡により取得された色の値を置き換えることにより、観察対象の真の色を忠実に再現した画像を生成する忠実色再現画像生成手段を備える。 Also, by replacing the color value acquired by the electronic endoscope connected to the processing device using the correspondence stored in the replacement table for the model determined by the model determining means, A faithful color reproduction image generating means for generating an image that faithfully reproduces the true color is provided.
さらに、この処理装置は、画像処理の内容を規定する設定情報を、内視鏡検査の目的ごとに記憶し得る設定情報記憶手段と、設定情報記憶手段が記憶する設定情報のうち処理装置に入力された選択信号に基づいて選択された一の設定情報を参照して、忠実色再現画像生成手段により生成された画像の画像処理を行う画像処理手段を備える。内視鏡検査の目的ごとに記憶するとは、例えば、観察部位ごと、使用する検査薬ごと、検査により発見しようとする対象ごとに記憶することなどをいう。 Further, the processing apparatus inputs setting information defining the content of image processing to the processing apparatus among setting information storage means capable of storing for each purpose of endoscopy and setting information stored by the setting information storage means. An image processing unit that performs image processing of the image generated by the faithful color reproduction image generation unit with reference to one setting information selected based on the selected signal. For example, storing for each purpose of endoscopy means storing for each observation site, for each test drug to be used, and for each object to be discovered by the test.
設定情報記憶手段に記憶させる設定情報としては、次のような情報が考えられる。例えば、画像処理手段が、明るさ調整、シャープネス調整、色相調整など異なる画像処理を実行する複数の処理部を備えている場合には、設定情報として、複数の処理部のうち処理を実行させる1以上の処理部を指定する情報を記憶しておくのがよい。また、画像処理手段により参照されるデータを記憶し得るデータ記憶手段を設け、設定情報として、そのデータ記憶手段が記憶しているデータのうち処理に使用する1以上のデータを指定する情報を記憶しておいてもよい。なお、処理に使用するデータには、ルックアップテーブル、処理条件を表すパラメータなど、処理に使用するあらゆるデータが含まれる。
The following information can be considered as the setting information stored in the setting information storage means. For example, when the image processing means includes a plurality of processing units that execute different image processing such as brightness adjustment, sharpness adjustment, hue adjustment, etc., the setting information is executed among the plurality of
上記構成の電子内視鏡装置によれば、忠実色再現画像生成手段によりCCDの色取得方式に依存しない画像が生成され、その画像に対して画像処理手段による画像処理が施される。このため、CCDの色取得方式の違いによって画像処理の結果が異なることがない。また、目的別に予め記憶されている設定情報を利用して画像処理を行うので、検査の度に複雑な調整を行う必要がなく、ユーザの負担が少ない。さらに、画像処理は、忠実色再現画像生成手段が生成した画像を対象に行うため、設定情報を内視鏡ごとに用意する必要がない。 According to the electronic endoscope apparatus configured as described above, an image independent of the CCD color acquisition method is generated by the faithful color reproduction image generation means, and the image processing by the image processing means is performed on the image. For this reason, the result of image processing does not differ depending on the difference in CCD color acquisition method. In addition, since image processing is performed using setting information stored in advance for each purpose, it is not necessary to make complicated adjustments for each inspection, and the burden on the user is small. Furthermore, since the image processing is performed on the image generated by the faithful color reproduction image generating means, it is not necessary to prepare setting information for each endoscope.
以下、本発明の一実施形態として、消化器検査に用いられる電子内視鏡システムを例示する。 Hereinafter, as one embodiment of the present invention, an electronic endoscope system used for a digestive organ examination will be exemplified.
1. システムの構成
図1に、電子内視鏡システムの概略構成を示す。電子内視鏡システム1は、図に示すように、電子内視鏡2(以下、スコープ2)と、電子内視鏡により取得された画像を処理する処理装置3(以下、プロセッサ3)と、図示されない光源装置、モニタおよびプリンタなどを備える。電子内視鏡システム1では、内視鏡検査の目的に応じた複数種類のスコープを使用することができるが、図のスコープ2は、それらのスコープに共通する構成を示したものである。
1. System Configuration FIG. 1 shows a schematic configuration of an electronic endoscope system. As shown in the figure, the
スコープ2は、CCD(Charge Coupled Device)21、CCD21により取得された信号を処理する信号処理回路22、各種制御処理を行うマイコン23およびプロセッサ3に接続されるコネクタ部(図示せず)を備える。
The
CCD21は、対物レンズとともにスコープ2の先端に取り付けられ、観察対象からの反射光を取得し、電気信号に変換する。本実施形態ではCCDの撮像分解能は約5μmである。
The
信号処理回路22は、CCD21の出力信号に対し相関二重サンプリング、自動利得制御およびA/D変換などの信号処理を施す。マイコン23は、信号処理回路の動作やプロセッサ3へのデータ伝送を制御する。
The
ここで、スコープ2の色情報の取得方式について説明する。一般に、CCDはカラーフィルタを備えており、観察対象からの反射光をカラーフィルタを介して取得することによって、観察対象の色に関する情報を取得する。このため、CCDが備えるカラーフィルタの配置のしかた、あるいはカラーフィルタの種類が異なれば、取得される画像の色情報の質や色表現は異なることとなる。
Here, the acquisition method of the color information of the
例えば、カラーフィルタの配置のしかたについては、回転式フィルタを回転させながら各色の情報を交互に取得する面順次式のCCDと、モザイクフィルタを介して各色の情報をまとめて取得する同時式のCCDが知られている。既存のスコープには、面順次式のCCDを採用したものもあれば、同時式のCCDを採用したものもある。しかし、面順次式のCCDは、撮影する部位の動きがフィルタの回転よりも速い場合に、各色の画像がずれる場合がある。このため、電子内視鏡システム1では、スコープ2として、同時式のCCDを備えたスコープを採用している。
For example, regarding the arrangement of the color filter, a frame sequential CCD that alternately acquires information of each color while rotating the rotary filter, and a simultaneous CCD that collectively acquires information of each color via the mosaic filter It has been known. Some existing scopes employ a field sequential CCD, while others employ a simultaneous CCD. However, in the case of the frame sequential type CCD, when the movement of the part to be imaged is faster than the rotation of the filter, the images of the respective colors may shift. For this reason, the
また、カラーフィルタの種類としては、赤(R),緑(G)、青(B)の3色を分別する原色フィルタと、シアン(C),マゼンダ(M),イエロー(Y),グリーン(G)の4色を分別する補色フィルタが知られている。原色フィルタを備えたCCD(以下、原色CCD)により取得される画像はRGBで表現され、補色フィルタを備えたCCD(以下、補色CCD)により取得される画像はCMYGで表現される。このため、既存の電子内視鏡システムは、原色CCDを備えたスコープもしくは補色CCDを備えたスコープのいずれか一方しか使用することができない。これに対し、電子内視鏡システム1では、CCDのカラーフィルタの種類が異なる複数種類のスコープを使用することができる。
As the types of color filters, primary color filters for separating three colors of red (R), green (G), and blue (B), cyan (C), magenta (M), yellow (Y), green ( A complementary color filter that separates the four colors G) is known. An image acquired by a CCD provided with a primary color filter (hereinafter referred to as primary color CCD) is expressed in RGB, and an image acquired by a CCD provided with a complementary color filter (hereinafter referred to as complementary color CCD) is expressed in CMYG. For this reason, the existing electronic endoscope system can use only one of a scope having a primary color CCD and a scope having a complementary color CCD. On the other hand, in the
表1に電子内視鏡システム1で使用できるスコープを例示する。
表1において、スコープA,B,CのCCDは、いずれも原色フィルタを備えたCCDであり解像度も同じであるが、スコープB、Cは、CCDのフィルタとは別に、ある特定の色の光だけを通さないようにするカットフィルタを備えている。このように、観察対象の色情報を取得する方式は、面順次式か同時式か、原色CCDか補色CCDかということのみならず、CCDと組み合わせるカットフィルタの種類によっても異なる。 In Table 1, the CCDs of scopes A, B, and C are all CCDs having primary color filters and have the same resolution. However, scopes B and C have a specific color light separately from the CCD filters. It has a cut filter that prevents it from passing through. As described above, the method for acquiring the color information of the observation target is not only the field sequential type or the simultaneous type, the primary color CCD or the complementary color CCD, but also the type of cut filter combined with the CCD.
次に、プロセッサ3の構成について説明する。プロセッサ3は、図示されないコネクタ部を備える。プロセッサ3のコネクタ部は、上記各スコープのコネクタ部を簡単に接続したり取り外したりできる構造となっている。
Next, the configuration of the
また、プロセッサ3は、スコープ2の信号処理回路22から、コネクタ部を介して入力された信号に対し、ガンマ補正を施してビデオ信号を生成する信号処理回路31を備える。信号処理回路31は、スコープの信号処理回路22の出力信号がCMYG信号の場合には、CMYG信号からRGB信号への変換処理も行う。また、プロセッサ3は、信号処理回路31の動作や、スコープ2との通信を制御するマイコン32を備える。信号処理回路31の後段には、画素数変換やD/A変換を行ってモニタ出力用の信号を生成する信号処理回路35が配置されている。
The
さらに、プロセッサ3は、信号処理回路31、マイコン32および信号処理回路35が搭載された主基板とは別に、画像処理専用基板4を備える。画像処理専用基板4には、信号処理回路31から出力された画像信号に対し各種画像処理を施す画像処理回路41と、画像処理回路41を制御するマイコン42が搭載されている。画像処理回路41は信号処理回路31,35とセレクタ33,34を介して接続されている。セレクタ33,34はマイコン32からの制御信号に基づいて切り替わる。
Furthermore, the
図2に、画像処理専用基板4の詳細構成を示す。図に示すように、画像処理回路41は標準画像生成部411、色置換部412、明彩度調整部413、シャープネス調整部414、色相調整部415および後処理部416の6つの処理部に分類される。色置換部412、明彩度調整部413、シャープネス調整部414および色相調整部415は、セレクタ417a〜eの切り替えにより、選択的に動作させることができる。セレクタ417a〜eは、マイコン42から供給される制御信号に基づいて切り替わる。
FIG. 2 shows a detailed configuration of the image processing dedicated
また、画像処理専用基板4には、メモリ43が搭載されている。メモリ43には、色置換部412、明彩度調整部413、シャープネス調整部414および色相調整部415の処理で利用される各種ルックアップテーブルが記憶されている。このうち、色置換部412で使用されるルックアップテーブルは、スコープの機種ごとに記憶されている。メモリ43には、このほかにも各種処理パラメータが記憶されている。なお、メモリ43に記憶されているルックアップテーブルや処理パラメータの中には、電子内視鏡システム1がメーカーから出荷される時点で記憶されているもののほか、ユーザが後から記憶させたものも含まれている。これらのルックアップテーブルやパラメータは、後述するように、マイコン42により参照される。
Further, the
ここで、セレクタ33,34と、セレクタ417a〜eの切り替えについて、さらに説明する。画像処理専用基板4の機能を利用するか否かは、操作パネルで設定される。また、画像処理専用基板4の機能を利用する場合に、色置換部412、明彩度調整部413、シャープネス調整部414および色相調整部415の機能を利用するか否かも、操作パネルで設定される。ユーザが操作パネル上で行った設定の情報(以下、設定情報)は、メモリに記憶される。このメモリは、設定情報記憶用の独立したメモリとすることが好ましいが、メモリ43や他の目的で設けられたメモリの一部領域を利用してもよい。
Here, the switching between the
このメモリは、機能選択に係る設定情報を、複数組まとめて記憶することができる。したがって、ユーザは、電子内視鏡システムを使用する度に、操作パネル上で機能の選択を行うこともできるし、予め、検査の目的ごとに設定情報を記憶しておき、記憶されている設定情報を呼び出して使用することもできる。 This memory can store a plurality of sets of setting information related to function selection. Therefore, each time the user uses the electronic endoscope system, the user can select a function on the operation panel, or the setting information is stored in advance for each inspection purpose. Information can also be recalled and used.
例えば胃の観察に適した設定、大腸の観察に適した設定というように観察部位ごとに設定情報を記憶しておいてもよいし、濃青色検査薬を使った検査に適した設定、赤茶色検査薬を使った検査に適した設定というように使用する検査薬ごとに設定情報を記憶しておいてもよい。さらには、動脈瘤の発見に適した設定、腫瘍の発見に適した設定というように検査により発見しようとする対象ごとに記憶しておいてもよい。 For example, setting information suitable for observation of the stomach, setting suitable for observation of the large intestine may be stored for each observation site, setting suitable for examination using a dark blue test agent, reddish brown You may memorize | store setting information for every test agent to be used like the setting suitable for the test | inspection using a test agent. Furthermore, it may be stored for each object to be discovered by examination such as a setting suitable for finding an aneurysm and a setting suitable for finding a tumor.
図3は、電源投入時にマイコン32が実行する初期化処理の概要を示すフローチャートである。プロセッサ3にスコープ2が接続され、電子内視鏡システム1の電源が投入されると、マイコン32はスコープ2のマイコン23と通信を行って、スコープ2の機種を判別するためのデータ(以下、スコープデータと称する)を取得する(S101)。スコープデータには、表1に例示した情報、すなわちCCDの解像度とフィルタの種類を示す情報が含まれている。フィルタの種類を示す情報には、原色/補色の区別、カットフィルタの有無、カットフィルタによりカットされる周波数(色)などの情報が含まれる。
FIG. 3 is a flowchart showing an overview of the initialization process executed by the
続いて、マイコン32は、メモリに記憶されている設定情報を参照する(S102)。複数の設定情報が記憶されている場合には、操作パネルの操作によりユーザが選択した設定情報を参照する。ユーザが操作パネル上で設定情報を選択する操作を行うと選択内容を表す選択信号がマイコン32に入力される。マイコン32は、入力された選択信号に基づいて選択された設定情報を判断する。そして、参照した設定情報に基づいて画像処理専用基板4との接続の要不要を判定し(S103)、判定結果に基づいてセレクタ33,34を制御する(S104,S109)。接続が不要であり画像処理専用基板4を切り離した場合には、その時点で初期化処理を終了する。
Subsequently, the
マイコン32は、ステップS104において画像処理専用基板4を接続するようにセレクタを制御したときは、次にステップS102で参照した設定情報に基づいて、ユーザが選択した機能の組み合わせが適切か否かを判定する(S105)。
When the
マイコン32は、選択機能の組み合わせが適切と判定した場合には、選択された内容を表す指示データを、ステップS101で取得したスコープデータとともに画像処理専用基板4のマイコン42に対し送出する(S108)。
If the
一方、選択機能の組み合わせが適切ではないと判定した場合には、プロセッサ3に接続されているモニタ装置(図示せず)に警告メッセージを出力する(S106)。この場合、マイコン32は、機能の組み合わせを適切な組み合わせに自動修正し(S107)、その内容を表す指示データを、ステップS101で取得したスコープデータとともに画像処理専用基板4のマイコン42に対し送出する(S108)。
On the other hand, if it is determined that the combination of the selection functions is not appropriate, a warning message is output to a monitor device (not shown) connected to the processor 3 (S106). In this case, the
なお、警告メッセージを出力した後、ユーザが確認操作を行うのを待ってから、スコープデータおよび指示データを送出してもよい。 Note that after outputting the warning message, the scope data and the instruction data may be transmitted after waiting for the user to perform a confirmation operation.
機能選択が適切か否かの判定は、予め記憶されている判断ルールに基づいて行われる。プロセッサ3が備えるメモリに、例えば、明彩度調整部を動作させるときには必ず色置換部も動作させなければならないといった判断ルールを定義したデータを記憶しておく。そして、設定情報をそのデータと照合することによって、ユーザが行った機能選択が適切か否かを判定する。
The determination as to whether the function selection is appropriate is performed based on a determination rule stored in advance. In a memory provided in the
続いて、図4を参照して、マイコン42の動作について説明する。マイコン42は、マイコン32が送出したスコープデータと指示データを受信すると(S201)、スコープデータに基づいてスコープの機種を判別し、さらに指示データに基づいて選択された機能を判別する(S202)。次に、マイコン42は、選択された機能を提供する処理部に信号が入力されるように、セレクタ417a〜417eを制御する(S203)。続いてマイコン42は、各処理部が必要とするルックアップテーブルやパラメータをメモリ43から読み込む(S204)。
Next, the operation of the
この際、前述のとおり、ルックアップテーブルの中にはスコープの機種ごとに記憶されているテーブルがある。上記スコープ機種の判別結果は、メモリから読み込むルックアップテーブルを選択するときに使用する。読み込んだルックアップテーブルやパラメータは、それらを必要とする処理部に送出される(S205)。 At this time, as described above, the lookup table includes a table stored for each scope model. The scope model discrimination result is used when selecting a lookup table to be read from the memory. The read lookup table and parameters are sent to a processing unit that requires them (S205).
以上に説明したように、電子内視鏡システム1のプロセッサ3はスコープ2の機種、言い換えればスコープの色情報取得方式を判別した上で画像処理を行うので、スコープ2としてあらゆるタイプのスコープを採用することができる。すなわち、補色CCDを備えたタイプに限定されたり、原色CCDを備えたタイプに限定されることはない。
As described above, the
また、ユーザは操作パネル上で所定の設定操作を行うことにより、あるいは予め記憶しておいた設定を呼び出すことにより、利用したい画像処理機能を自由に選択することができる。この際、知識不足などから不適切な機能選択を行ってしまった場合でも、警告メッセージの出力とともに適切な選択が自動で行われるので、画像処理機能を、常に有効に活用することができる。 The user can freely select an image processing function to be used by performing a predetermined setting operation on the operation panel or by calling a setting stored in advance. At this time, even if an inappropriate function is selected due to lack of knowledge or the like, the appropriate selection is automatically performed together with the output of the warning message, so that the image processing function can always be used effectively.
さらに、画像処理専用基板4の機能を利用しないユーザは、操作パネル上で所定の設定操作を行うことにより、画像処理専用基板4への信号入力を停止させることができる。これにより、使用しない機能のために電力が消費されることはなくなる。
Furthermore, a user who does not use the function of the image processing dedicated
なお、画像処理回路41は、標準画像生成部411、色置換部412、明彩度調整部413、シャープネス調整部414、色相調整部415および後処理部416の機能をそれぞれ個別に提供する複数の半導体装置が配置された回路であってもよいし、画像処理専用のCPUと6種類の画像処理プログラムが記憶されたメモリが配置された回路であってプログラムの中で各処理を実行するか否かを切り替えるものであってもよい。
The
2. システムの画像処理機能
以下、画像処理回路41が実行する画像処理について、詳細に説明する。画像処理回路41が提供する画像処理機能は、大きく分類して2種類ある。
2. Image Processing Function of System Hereinafter, image processing executed by the
第1の機能は、スコープの色情報取得方式の違いを吸収する機能である。具体的には、スコープの機種、詳細にはCCDのカラーフィルタの種類に依存しない標準画像を生成することによって、色情報取得方式の違いを吸収する。標準画像は、撮影した部位の色が忠実に再現された画像となるようにする。この標準画像は、標準画像生成部411において生成される。
The first function is a function that absorbs the difference in the scope color information acquisition method. Specifically, the difference in the color information acquisition method is absorbed by generating a standard image that does not depend on the scope model, specifically, the type of CCD color filter. The standard image is an image in which the color of the imaged part is faithfully reproduced. This standard image is generated by the standard
第2の機能は、第1の機能により生成された標準画像を、診断に適した画像となるように処理する機能である。この機能は、色置換部412、明彩度調整部413、シャープネス調整部414および色相調整部415により提供される。
The second function is a function of processing the standard image generated by the first function so as to become an image suitable for diagnosis. This function is provided by the
色置換部412は、画像の色味をユーザの好みに合わせることを目的とした画像処理を行う。明彩度調整部413は、暗くて見難い部分を見易くすることを目的とした画像処理を行う。シャープネス調整部414は、診断に必要な構造(例えば凹凸や血管)を強調することを目的とした画像処理を行う。また、色相調整部415は、診断に必要な色の差を強調し、診断に不要な、あるいは診断を妨害するような色の差を低減することを目的とした画像処理を行う。後処理部416は、ノイズの除去とモニタ出力用信号の生成処理を行う。
The
以下、各部ごとに、具体的な処理の例を示す。 Hereinafter, specific examples of processing are shown for each unit.
2.1 標準画像生成部
標準画像生成部411は、標準画像を生成する処理部であるが、標準画像を生成する前に所定の前処理を行う。はじめに、その前処理について説明する。
2.1 Standard Image Generation Unit The standard
信号処理回路31の説明として前述したとおり、電子内視鏡システム1では、スコープ2が補色CCDを備えたスコープである場合には、信号処理回路31においてCMYG信号からRGB信号への変換が行われる。詳細には、信号処理回路31は、補色CCDから得られた信号を輝度信号Yと色差信号Cr,Cbに変換し、さらにその輝度信号Yと色差信号Cr,Cb(以後、YCC信号)を原色信号R,G,Bに変換する。
As described above with reference to the
このため、画像処理回路41に入力されるRGB信号の各値は、小数点以下の値を含む値となる可能性がある。そのような値を複雑な計算に用いれば、画像処理のための計算を繰り返す過程で丸め込み誤差が発生し、色空間に狂いが生ずるおそれがある。
For this reason, each value of the RGB signal input to the
そこで、標準画像生成部411では、最初に、8ビットのデータを10ビットのデータに置き換える処理を実行する。詳細には、画像を構成する全画素のR値、G値、B値のそれぞれについて、10ビット分の領域を確保して、8ビットデータを4倍した値をその領域に格納する。これは、図5に示すように、8ビットの値を上位方向に2ビットシフトさせた値を10ビットの領域に格納し、その領域の下位2ビットに0の値を格納することに他ならない。これにより、計算の有効桁数が増加するため、丸め込みにより発生する誤差の影響を軽減することができる。なお、標準画像生成部411において10ビットに変換され処理されたデータは、後処理部416により再び8ビットのデータに変換されてからモニタ出力される。
In view of this, the standard
続いて、この10ビットのデータを用いて、標準画像を生成する処理について説明する。 Next, a process for generating a standard image using the 10-bit data will be described.
標準画像は、10ビット化したRGBデータを、予め作成しておいた3次元ルックアップテーブル5(以下、3次元LUT5)を用いて変換(置換)することにより生成する。 The standard image is generated by converting (replacing) the 10-bit RGB data using a previously created three-dimensional lookup table 5 (hereinafter, three-dimensional LUT 5).
図6に示すように、3次元LUT5は、スコープにより取得された色の値(R,G,B)を、実物の色の値(R´,B´,G´)に置き換えるテーブルである。スコープにより取得される可能性がある色の値は、実際にスコープを使用して各部位の観察を行えば取得できる。また、実物の色の値は、手術の機会を利用して各部位の色を測色系を用いて測定すれば取得できる。したがって、同じ部位から取得されたデータ同士を対応付ければ、そのスコープ用の3次元LUT5を作成することができる。
As shown in FIG. 6, the three-
スコープの機種ごとに観察を行ってデータを収集すれば、各機種用の3次元LUT5を作成することができる。上記の手順により作成されたLUT5によれば、スコープの色情報取得方式の違いのみならず、例えば対物レンズの収差の違いなど色以外に関わる違いも吸収することができる。
If data is collected by observing each scope model, a three-
このようにして作成された機種ごとの3次元LUT5は、図2のメモリ43に記憶されており、図4を参照して説明した手順でマイコン42から標準画像生成部411に供給される。標準画像生成部411は、画像を構成する各画素のR,G,B値を、3次元LUT5を用いて置換することにより、観察対象の真の色を忠実に再現した標準画像を生成する。
The three-
なお、R,G,B値それぞれが10ビットで表されたデータを、同じくR,G,B値それぞれが10ビットで表されたデータに置き換える3次元LUT5は、10243個の対応付けを記憶することになる。また3次元LUT5は、スコープの機種ごとに複数記憶しておく必要があるため、メモリ43はそれらを記憶するのに十分な容量を有するものとする必要がある。
The three-
メモリの容量に制限がある場合の対策としては、一部の対応付けのみをLUTに記憶し、他の対応付けは補間計算により求めるという方法が考えられる。例えば、図7に例示するように、R,G,Bがそれぞれ0,32,63,96,・・・,255(32とびの値)のときの対応付けのみを3次元LUT6に記憶しておく。
As a countermeasure when the memory capacity is limited, a method of storing only a part of associations in the LUT and obtaining other associations by interpolation calculation is conceivable. For example, as illustrated in FIG. 7, only the association when R, G, and B are 0, 32, 63, 96,..., 255 (32 values) is stored in the three-
そして、3次元LUT6に記憶されていないRGB値が入力された場合には、図8に示すように、入力値のRGB空間における座標点P(r,g,b)の周辺から、3次元LUT6に対応付けが記憶されている座標点A〜Hを抽出する。そして、座標点A〜HのRGB値を3次元LUT6を用いて座標点A´〜H´のR´G´B´値に置換する。
When an RGB value that is not stored in the three-
その後、座標点A´〜H´のR´G´B´値に、座標点A〜Hと座標点Pの関係に応じた重み付けをして加算すれば、3次元LUT6に対応付けが記憶されていない座標点P(r,g,b)に対応するP´(r´,g´,b´)を求めることができる。
After that, if the R′G′B ′ values of the coordinate points A ′ to H ′ are weighted according to the relationship between the coordinate points A to H and the coordinate point P, the association is stored in the three-
以上に説明した処理により、スコープの機種に依存せず、かつ実物の色に忠実な色が再現された標準画像を得ることができる。以降の画像処理は、この標準画像を対象として行われるため、スコープの機種によって、画像処理回路41により出力される画像の仕上がりに差が生じるということはない。
Through the processing described above, it is possible to obtain a standard image in which a color faithful to the actual color is reproduced without depending on the scope model. Since the subsequent image processing is performed on this standard image, there is no difference in the finish of the image output by the
なお、本実施形態では、セレクタ417a〜417eの切り替えにより後段の色置換部以降の処理部が実行されないようにして、標準画像生成部411において生成された標準画像をモニタ出力することもできる。
In the present embodiment, the standard image generated by the standard
2.2 色置換部
色置換部412は、画像の色をユーザの好みに合わせることを目的とした色置換処理を行う。
2.2 Color Replacement Unit The
例えば、電子内視鏡システムの光源にはキセノンランプが用いられることが多いが、初期の内視鏡はハロゲンランプを光源として用いていたため、取得される画像は黄色っぽいものであった。このため、実物の色が忠実に再現された画像よりも、慣れ親しんだ色味の画像のほうが正確な診断ができると考えるユーザは少なくない。色置換部412は、このようなニーズに応えるために、標準画像の色をユーザの好みの色に置き換える。
For example, a xenon lamp is often used as a light source of an electronic endoscope system, but since an early endoscope used a halogen lamp as a light source, an acquired image was yellowish. For this reason, there are many users who think that an image having a familiar color can be diagnosed more accurately than an image in which the actual color is faithfully reproduced. In order to meet such needs, the
色の置換は、標準画像の生成処理と同様、3次元LUTを用いて行う。ここで使用する3次元LUTは、標準画像のRGB値を、それぞれユーザの好みのR´G´B´値に置き換えるテーブルである。このテーブルは、電子内視鏡システム1を提供するメーカーが提供してもよいし、ユーザが自ら作成することもできる。
The color replacement is performed using a three-dimensional LUT, as in the standard image generation process. The three-dimensional LUT used here is a table that replaces the RGB values of the standard image with R′G′B ′ values that the user likes. This table may be provided by the manufacturer that provides the
色置換部412が使用する3次元LUTも、図2のメモリ43に記憶されており、図4を参照して説明した手順でマイコン42から色置換部412に供給される。設定情報はテーブル選択に必要な情報を含んでおり、3次元LUTが複数記憶されている場合には設定情報に基づいて選択されたテーブルが色置換部412に供給される。色置換部412は、供給された3次元LUTを利用して、標準画像を構成する各画素のRGB値を変換する。
The three-dimensional LUT used by the
なお、標準画像生成処理と同様、3次元LUTに一部の対応付けのみを記憶しておき、3次元LUTに対応付けが記憶されていないRGB値の変換は、補間計算により行ってもよい。 Similar to the standard image generation processing, only a part of the association may be stored in the three-dimensional LUT, and the conversion of the RGB values for which the association is not stored in the three-dimensional LUT may be performed by interpolation calculation.
2.3 明彩度調整部
明彩度調整部413は、画像の明るさを調整する処理を行う。特に、画像中の明暗差が大きいことから生じる問題を解決することを目的とした画像処理を行う。
2.3 Brightness / Saturation Adjustment Unit The brightness /
例えば、十二指腸の入口部分の内視鏡撮影では、手前(胃側)と奥(十二指腸の中)との明暗差が大きい画像が得られる。特に濃青色など暗い色の検査薬を散布して撮影を行った場合には、十二指腸内部が暗すぎて観察できないといった問題が生ずる。診断のためには、検査薬を散布した状態でも手前から奥まで見渡せるような画像が必要であるが、内視鏡による撮影では、一般の写真撮影と異なり、撮影時に照明の位置や向きを調整することはできない。また人体が火傷を負う危険があるので、照明を強くすることもできない。このため、画像の明るさが適切な明るさとなるように、画像処理で調整する必要がある。 For example, in endoscopic imaging of the entrance portion of the duodenum, an image with a large contrast between the front (stomach side) and the back (in the duodenum) is obtained. In particular, when photographing is performed by spraying a dark blue test drug such as dark blue, the inside of the duodenum is too dark to be observed. For diagnosis, it is necessary to have an image that can be seen from the front to the back even when sprayed with test chemicals. Unlike conventional photography, the position and orientation of the illumination are adjusted when photographing with an endoscope. I can't do it. Also, there is a risk of burns to the human body, so the lighting cannot be increased. For this reason, it is necessary to adjust by image processing so that the brightness of the image becomes an appropriate brightness.
この際、CCDは光の量に応じて出力電圧を制御する素子であるため、暗い領域の撮影では出力電圧が小さくなり、色の情報を正確に取得できないことがある。この場合、画像処理により単純に画像の輝度成分の値を大きくすると、暗い青色が明るい青色にならずに緑色になるといった問題が発生することがある。このため、明彩度調整部413の処理では、単に画像の明度を補正するのではなく、色味も調整しながら明るさを調整する。
At this time, since the CCD is an element that controls the output voltage in accordance with the amount of light, the output voltage becomes small when photographing in a dark region, and color information may not be obtained accurately. In this case, if the value of the luminance component of the image is simply increased by image processing, there may occur a problem that dark blue does not become light blue but becomes green. For this reason, in the process of the lightness /
図9は、明彩度調整部413の処理の概要を示すフローチャートである。明彩度調整部413では、はじめに入力画像をYCC信号に変換し、輝度成分のみからなる輝度画像Yを生成する(S301)。なお、以下の説明では、画像を構成する各画素の位置を(x,y)で表現し、画像Iの位置(x,y)の画素の値をI(x,y)と表すこととする。
FIG. 9 is a flowchart showing an outline of processing of the lightness /
続いて、輝度画像Yに対し画像処理フィルタを用いたぼかし処理を施して輝度ボケ画像UYを生成する。ぼかし処理は2段階に行う。1段目のぼかし処理では、画像処理フィルタとして移動平均フィルタを用いる(S302)。2段目のぼかし処理では、画像処理フィルタとしてガウシアンフィルタを用いる。この2段階のぼかし処理により、画像の輝度分布を表す輝度ボケ画像UYを生成する(S303)。 Subsequently, the brightness image YY is generated by performing a blurring process using an image processing filter on the brightness image Y. The blurring process is performed in two stages. In the first stage blurring process, a moving average filter is used as an image processing filter (S302). In the second stage blurring process, a Gaussian filter is used as an image processing filter. By this two-stage blurring process, a luminance blur image UY representing the luminance distribution of the image is generated (S303).
次に、明彩度調整部413は、明るさの調整度合いを表す明るさ調整分を決定する(S304)。明るさ調整分は、輝度ボケ画像UYの各画素値をルックアップテーブルLUTyにより変換することによって、画素ごとに決定する。
Next, the lightness /
LUTyは、0〜1023の範囲の入力値と、0〜1023の範囲の出力値との対応付けを記憶した1次元のルックアップテーブルである。LUTyとしては、例えば、図10に示すように、入力値が所定値を超えると出力値が0になるようなテーブルを使用する。なお、図10は、入力値と出力値の対応付けを、入力値を横軸、出力値を縦軸として表現したものである。 The LUTy is a one-dimensional lookup table that stores associations between input values in the range of 0 to 1023 and output values in the range of 0 to 1023. As the LUTy, for example, as shown in FIG. 10, a table is used in which the output value becomes 0 when the input value exceeds a predetermined value. FIG. 10 represents the association between the input value and the output value with the input value as the horizontal axis and the output value as the vertical axis.
なお、LUTyは、明るさの調整方針に基づいて適宜設計すればよい。例えば図10に例示したテーブルは、暗い部分を明るくして明るい部分はそのままにするという調整方針に基づいて設計されたテーブルであるが、暗い部分を大幅に明るくし明るい部分は少しだけ明るくする、あるいは明るい部分の明るさを少し抑えるなど、調整方針としては種々考えられる。なお、LUTyは、図2のメモリ43に記憶されており、図4を参照して説明した手順でマイコン42から明彩度調整部413に供給される。
The LUTy may be appropriately designed based on the brightness adjustment policy. For example, the table illustrated in FIG. 10 is a table designed based on an adjustment policy of brightening a dark part and leaving a bright part as it is. However, the dark part is significantly brightened and the bright part is slightly brightened. Alternatively, various adjustment policies are conceivable, such as slightly reducing the brightness of bright areas. Note that the LUTy is stored in the
次に、明るさ調整分における明度寄与分と彩度寄与分の配分を決める(S305)。この配分は、画像を構成する画素ごとに決める。具体的には、次式により、明度寄与分rate1と、彩度寄与分rate2を決定する。
Yp(x,y) = Y(x,y)+ LUTy(UY(x,y))
rate1(x,y) = LUTy(UY(x,y))×LUTr(Yp)
rate2(x,y) = LUTy(UY(x,y))×(1−LUTr(Yp))
但し、Ypは、輝度ボケ画像UYから得られる輝度情報のみに基づいて調整を行った場合の、各画素の輝度値を推定した値である。
Next, distribution of brightness contribution and saturation contribution in the brightness adjustment is determined (S305). This distribution is determined for each pixel constituting the image. Specifically, the
Yp (x, y) = Y (x, y) + LUTy (UY (x, y))
rate1 (x, y) = LUTy (UY (x, y)) × LUTr (Yp)
rate2 (x, y) = LUTy (UY (x, y)) × (1-LUTr (Yp))
However, Yp is a value obtained by estimating the luminance value of each pixel when adjustment is performed based only on luminance information obtained from the luminance blurred image UY.
LUTrは、例えば図11に示すように、入力値が所定値以下のときと所定値以上のときに出力値がほぼ一定になり、入力値がそれ以外の部分では出力値が入力値の増加とともに増加するようなテーブルとする。このテーブルは、暗い領域で彩度調整機能を特に効かせるという方針に基づいて設計されたテーブルである。LUTrも、LUTyと同様、調整方針に基づいて適宜設計すればよい。LUTrも、図2のメモリ43に記憶されており、図4を参照して説明した手順でマイコン42から明彩度調整部413に供給される。
For example, as shown in FIG. 11, the output value of the LUTr is almost constant when the input value is equal to or lower than the predetermined value and when the input value is equal to or higher than the predetermined value. Increase the table. This table is a table designed based on a policy that the saturation adjustment function is particularly effective in a dark region. The LUTr may be appropriately designed based on the adjustment policy, similar to the LUTy. The LUTr is also stored in the
上記式から明らかであるように、rate1(x,y)とrate2(x,y)は、その合計が、ステップS304で決定した明るさ調整分LUTy(UY(x,y))となるように決定される。また、rate1(x,y)とrate2(x,y)の配分は、推定された輝度値に依存する。これは、LUTyによる変換で、明るさをどの程度調整するか調整量を決め、次に、その決められた量の中で彩度調整をどの程度効かせるかを決めるということである。さらには、彩度調整をどの程度効かせるかを決める際に、もし彩度を調整せずに明度のみを調整したらどうなるか推定した値を参考にするということである。 As is apparent from the above equation, the sum of rate1 (x, y) and rate2 (x, y) is the brightness adjustment amount LUTy (UY (x, y)) determined in step S304. It is determined. The distribution of rate1 (x, y) and rate2 (x, y) depends on the estimated luminance value. This is to determine how much the brightness is adjusted by conversion by LUTy, and then to determine how much the saturation adjustment is to be applied within the determined amount. Furthermore, when deciding how much saturation adjustment should be applied, the estimated value of what happens if only the brightness is adjusted without adjusting the saturation is referred to.
次に、明彩度調整部413は、次式にしたがって、入力信号を構成する各画素(x,y)のRGB値に対し、そのRGB値に彩度寄与分に応じた重み付けをした彩度調整値と、輝度画像の画素値に明度寄与分に応じた重み付けをした明度調整値とを加算する(S306)。
R´(x,y)=R(x,y)+Y(x,y)×rate1+R(x,y)×rate2
G´(x,y)=G(x,y)+Y(x,y)×rate1+G(x,y)×rate2
B´(x,y)=B(x,y)+Y(x,y)×rate1+B(x,y)×rate2
Next, the lightness /
R ′ (x, y) = R (x, y) + Y (x, y) × rate1 + R (x, y) × rate2
G ′ (x, y) = G (x, y) + Y (x, y) × rate1 + G (x, y) × rate2
B ′ (x, y) = B (x, y) + Y (x, y) × rate1 + B (x, y) × rate2
あるいは、明度調整値は、輝度ボケ画像の画素値に明度寄与分に応じた重み付けをした値としてもよい。すなわち、ステップS306では、次式にしたがった処理を実行してもよい。
R´(x,y)=R(x,y)+UY(x,y)×rate1+R(x,y)×rate2
G´(x,y)=G(x,y)+UY(x,y)×rate1+G(x,y)×rate2
B´(x,y)=B(x,y)+UY(x,y)×rate1+B(x,y)×rate2
Alternatively, the lightness adjustment value may be a value obtained by weighting the pixel value of the luminance blurred image according to the lightness contribution. That is, in step S306, processing according to the following equation may be executed.
R ′ (x, y) = R (x, y) + UY (x, y) × rate1 + R (x, y) × rate2
G ′ (x, y) = G (x, y) + UY (x, y) × rate1 + G (x, y) × rate2
B ′ (x, y) = B (x, y) + UY (x, y) × rate1 + B (x, y) × rate2
上記処理式を用いた明るさの調整処理では、輝度を調整するだけでなく、彩度を合わせて調整しているため、自然な色合いの、違和感の少ない画像が得られる。例えば図10および図11に例示したルックアップテーブルを使用した処理では、暗い部分で特に丁寧な彩度調整が行われるので、暗い部分の細かい構造まで見易く再現される。また、例えば暗い部分は診断に不必要なのでそのままとし、診断に必要な領域で細かい構造が見やすく再現されるようにルックアップテーブルを設計することもできる。すなわち、目的に適した方法で、その目的に適した量だけ明るさを調整することができる。 In the brightness adjustment process using the above processing formula, not only the brightness is adjusted, but also the saturation is adjusted, so that an image with a natural hue and a little uncomfortable feeling can be obtained. For example, in the process using the look-up table illustrated in FIGS. 10 and 11, particularly careful saturation adjustment is performed in a dark part, so that even a fine structure in a dark part can be reproduced easily. In addition, for example, a dark part is unnecessary for diagnosis and can be left as it is, and a look-up table can be designed so that a fine structure can be easily reproduced in an area necessary for diagnosis. That is, the brightness can be adjusted by an amount suitable for the purpose by a method suitable for the purpose.
ここで、ステップS302およびS303のぼかし処理について、さらに説明する。 Here, the blurring process in steps S302 and S303 will be further described.
画像を構成する各画素の値を、画像処理フィルタを用いた演算により求められた値と置き換えることによって、その画像のボケ画像を生成する手法は、従来から知られている。そのようなボケ画像生成処理では、通常、3×3画素〜15×15画素程度の大きさの画像処理フィルタが演算に使用される。これに対し、明彩度調整部413は、画像の幅の1/4もしくはそれ以上の幅を有する画像処理フィルタを用いて演算を行う。例えば画像の幅が1024画素であった場合には、255×255画素もしくはそれより大きなサイズの画像処理フィルタを用いる。
A method for generating a blurred image of an image by replacing the value of each pixel constituting the image with a value obtained by calculation using an image processing filter has been conventionally known. In such a blurred image generation process, an image processing filter having a size of about 3 × 3 pixels to 15 × 15 pixels is usually used for calculation. On the other hand, the lightness /
図12は、画像処理フィルタの大きさと処理結果の関係について説明するための図である。図12(a)は通常の画像処理の例、図12(b)は明彩度調整部413の画像処理の例を示している。
FIG. 12 is a diagram for explaining the relationship between the size of the image processing filter and the processing result. FIG. 12A shows an example of normal image processing, and FIG. 12B shows an example of image processing of the lightness /
図12(a)に例示するように3×3画素の画像処理フィルタを用いた場合、各画素の値は9個の画素の値に依存することとなる。一方、図12(b)に示すように255×255画素の画像処理フィルタを用いた場合、各画素の値は、2552個の画素の値に依存することとなる。
When a 3 × 3 pixel image processing filter is used as illustrated in FIG. 12A, the value of each pixel depends on the value of nine pixels. On the other hand, in the case of using the
明暗差が大きい画像の明るさを調整するときには、単に暗い部分を明るくすればよいというものではなく、不自然にならない程度に明暗の差を残さなければならない。すなわち、画像全体の明るさのバランスは崩さずに、暗い部分を明るくする必要がある。そのためには、近接する画素の値のみをみて明るさを決定するのではなく、遠くの画素の値もみた上で明るさを決定する必要がある。 When adjusting the brightness of an image with a large difference in brightness, it is not just that the dark part needs to be brightened, but the difference in brightness must be left to the extent that it does not become unnatural. That is, it is necessary to brighten the dark part without breaking the balance of the brightness of the entire image. For this purpose, it is necessary to determine the brightness based on the values of distant pixels rather than determining the brightness only by looking at the values of adjacent pixels.
例えば図12(a)に例示したような小さな画像処理フィルタを用いて生成された輝度ボケ画像の各画素値は、100画素以上離れた画素の値とは無関係に決定される。このため、その100画素以上離れた画素との間で明暗が逆転する可能性がないとはいえない。 For example, each pixel value of a luminance blurred image generated using a small image processing filter as illustrated in FIG. 12A is determined regardless of the values of pixels that are separated by 100 pixels or more. For this reason, it cannot be said that there is no possibility that the lightness and darkness is reversed between the pixels separated by 100 pixels or more.
これに対し、図12(a)に例示したような大きな画像処理フィルタを用いて生成された輝度ボケ画像の各画素値は、100画素以上離れた画素の値を参照した上で決定される。したがって、100画素以上離れた画素との間で明暗が逆転するということは有り得ず、画像全体の明暗のバランスがくずれることはない。 On the other hand, each pixel value of a luminance blurred image generated using a large image processing filter as illustrated in FIG. 12A is determined with reference to the values of pixels separated by 100 pixels or more. Therefore, it is impossible for light and dark to be reversed between pixels that are separated by 100 pixels or more, and the balance of light and dark of the entire image will not be lost.
明彩度調整部413の処理では、推定輝度の計算や、明度寄与分、彩度寄与分の決定には、この画像全体の明暗のバランスが忠実に反映された輝度ボケ画像UYが使用されるので、調整後の画像は、明暗のバランスが維持された自然な画像となる。
In the process of the lightness /
ここで、画像処理フィルタのサイズが大きければ、当然のことながら演算量は多くなる。しかし、電子内視鏡の画像処理は、レントゲン装置の画像処理などと異なりリアルタイム性が要求されるため、処理時間が長くなることは好ましくない。 Here, if the size of the image processing filter is large, as a matter of course, the amount of calculation increases. However, since the image processing of the electronic endoscope requires real-time characteristics unlike the image processing of the X-ray apparatus, it is not preferable that the processing time becomes long.
そこで、明彩度調整部413では、ステップS302の1段目のぼかし処理を行うときに、縦横それぞれ数画素おきにフィルタを配置して演算を行うことによって、演算量を低減している。例えば3画素おきに演算を実行すれば、演算量を、全画素を対象として演算を実行する場合の1/9に低減することができ、処理時間を短縮できる。
Therefore, the lightness /
なお、ステップS303の2段目のぼかし処理でも同様に数画素おきに演算を行ってもよいが、ガウシアンフィルタを用いた演算では数画素おきの演算ではアーティファクトが発生するおそれがあるため、好ましくは1段目のぼかし処理は数画素ごと、2段目のぼかし処理は全画素を対象として演算を行うのがよい。 In the second stage blurring process in step S303, the calculation may be performed every several pixels in the same manner. However, in the calculation using the Gaussian filter, an artifact may occur in the calculation every several pixels. The first-stage blurring process is preferably performed for every several pixels, and the second-stage blurring process is performed for all pixels.
2.4 シャープネス調整部
シャープネス調整部414は、主として画像のシャープネスを強調することを目的とした画像処理を行う。但し、内視鏡画像には鋭いエッジは含まれていないため、主として凹凸や血管など観察対象の構造を強調することを目的とした処理を行う。
2.4 Sharpness Adjustment Unit The
例えば、胃の粘膜の下に何らかの隆起物ができた場合、細い血管は渦巻状になり、太い血管は湾曲する。このため、血管の形状変化の観察は、隠れた病変を見つけ出す上で極めて有効である。しかし、胃の内部は全体的に似通った色をしているため、画像の周波数成分に基づいて血管を区別しようとすると太い血管と隆起物の影とを区別することができない。 For example, if any protuberance is formed under the stomach mucosa, the thin blood vessels are spiraled and the thick blood vessels are curved. For this reason, the observation of the change in the shape of the blood vessel is extremely effective in finding a hidden lesion. However, since the inside of the stomach has a similar color as a whole, when trying to distinguish blood vessels based on the frequency components of the image, it is not possible to distinguish between thick blood vessels and shadows of raised objects.
このため、シャープネス調整部414では、画像の色味を考慮に入れたシャープネス調整処理を実行する。
For this reason, the
図13は、シャープネス調整部414の処理の概要を示すフローチャートである。
FIG. 13 is a flowchart showing an outline of processing of the
シャープネス調整部414では、はじめに入力画像をYCC信号に変換し、輝度成分のみからなる輝度画像Y(x,y)を生成する(S401)。
The
続いて、その輝度画像Y(x,y)に対し、画像処理フィルタを用いたぼかし処理を施して輝度ボケ画像U(Y(x,y))を生成する。ぼかし処理は2段階に行う。1段目のぼかし処理では、画像処理フィルタとして移動平均フィルタを用いる(S402)。フィルタは、あまり小さすぎると胃壁の凹凸など比較的大きな構造の情報が含まれなくなるので、80×80画素程度の大きさとする。また、ステップS402では、明彩度調整部413のステップS302と同様、計算量が少なくなるように数画素おきに演算を実行する。
Subsequently, the luminance image Y (x, y) is subjected to a blurring process using an image processing filter to generate a luminance blurred image U (Y (x, y)). The blurring process is performed in two stages. In the first stage blurring process, a moving average filter is used as an image processing filter (S402). If the filter is too small, information of a relatively large structure such as the unevenness of the stomach wall is not included, so the size is about 80 × 80 pixels. In step S402, similarly to step S302 of the lightness /
2段目のぼかし処理では、画像処理フィルタとしてガウシアンフィルタを用いる(S403)。ガウシアンフィルタは、標準偏差が異なる3種類のフィルタを使用する。 In the second-stage blurring process, a Gaussian filter is used as an image processing filter (S403). The Gaussian filter uses three types of filters with different standard deviations.
図14(a)、(b)および(c)は、3種類のガウシアンフィルタを表す。図の横軸は画像処理フィルタの中心画素の位置を0とした各画素の位置、縦軸はフィルタを構成する各画素の値を表す。図14(a)は、大きさが79×79画素の3種類の中で標準偏差が最も大きいフィルタである。このフィルタにより、臓器内壁の凹凸や動脈など比較的大きな構造の情報が抽出される。また、図14(b)は、大きさが15×15画素程度で図14(a)のフィルタよりも標準偏差が小さいフィルタである。このフィルタにより標準的な太さの血管など中くらいの大きさの構造の情報が抽出される。図14(c)は、大きさが3×3画素程度で、図14(b)のフィルタよりもさらに標準偏差が小さいフィルタである。このフィルタにより毛細血管など細かい構造の情報が抽出される。 14A, 14B and 14C show three types of Gaussian filters. In the figure, the horizontal axis represents the position of each pixel with the position of the center pixel of the image processing filter being 0, and the vertical axis represents the value of each pixel constituting the filter. FIG. 14A shows a filter having the largest standard deviation among the three types having a size of 79 × 79 pixels. With this filter, information on relatively large structures such as irregularities on the inner wall of the organ and arteries is extracted. FIG. 14B is a filter having a size of about 15 × 15 pixels and a standard deviation smaller than that of the filter of FIG. This filter extracts medium-sized structure information such as a standard-sized blood vessel. FIG. 14C shows a filter having a size of about 3 × 3 pixels and a smaller standard deviation than the filter shown in FIG. This filter extracts information on fine structures such as capillaries.
ステップS403において、強調したい構造の大きさに応じて標準偏差が設定されたガウシアンフィルタを使用すれば、強調したい構造を区別するのに十分な画像情報が残された輝度ボケ画像UYを生成することができる。 In step S403, if a Gaussian filter having a standard deviation set according to the size of the structure to be enhanced is used, a luminance blurred image UY in which image information sufficient to distinguish the structure to be enhanced is left is generated. Can do.
なお、2段目のぼかし処理では、3種類のガウシアンフィルタを用いて3段階に演算を行ってもよいが、処理時間を短縮するためには、3種類のガウシアンフィルタを重ね合わせた(機能を兼ね備えた)画像処理フィルタを用いて演算を行うのがよい。 In the second-stage blurring process, three types of computations may be performed using three types of Gaussian filters. However, in order to shorten the processing time, three types of Gaussian filters are superimposed (function It is preferable to perform the calculation using an image processing filter (also provided).
シャープネス調整部414は、輝度ボケ画像UYを生成すると、続いて次式により、輝度画像Yと輝度ボケ画像UYの値の差分を画素ごとに計算し、その差分の値に応じてシャープネス強調量C(x,y)を決定する(ステップS404)。
C(x,y)=|Y(x,y)−UY(x,y)|×LUTy(UY(x,y))
ルックアップテーブルLUTyは、明彩度調整部413が使用するルックアップテーブルLUTyと同じテーブルとしてもよいし、他の調整方針に基づいて設計されたテーブルとしてもよい。
When the
C (x, y) = | Y (x, y) −UY (x, y) | × LUTy (UY (x, y))
The lookup table LUTy may be the same table as the lookup table LUTy used by the lightness /
一般のシャープネス強調処理では、入力された画像の各画素値に上記シャープネス強調量C(x,y)を単純に加算することによりシャープネスを強調する。これに対し、シャープネス調整部414の処理では、色に依存する色別強調量Cr(x,y)、Cg(x,y)、Cb(x,y)を求め(S405)、その色別強調量を入力された画像の各画素値に加算することによりシャープネスを強調する。
In general sharpness enhancement processing, sharpness is enhanced by simply adding the sharpness enhancement amount C (x, y) to each pixel value of an input image. On the other hand, in the processing of the
色別強調量は次のような手順で計算される。まず次式に基づいて、シャープネス強調における明度調整の寄与分を表す明度寄与分rate3と、シャープネス強調における彩度調整の寄与分を表す彩度寄与分rate4を、決定する。
rate3=LUTc(Y(x,y))×C(x,y)
rate4={1−LUTc(Y(x,y))}×C(x,y)
The amount of enhancement for each color is calculated by the following procedure. First, based on the following equation, a
rate3 = LUTc (Y (x, y)) × C (x, y)
rate4 = {1-LUTc (Y (x, y))} × C (x, y)
上記式から明らかであるように、明度寄与分と彩度寄与分は、その合計がステップS404で求めたシャープネス強調量となるように決定される。LUTcは、明度寄与分と彩度寄与分の配分を決定するテーブルであり、目標とする画質に応じて適宜定義することができる。 As is clear from the above equation, the lightness contribution and the saturation contribution are determined so that the sum thereof is the sharpness enhancement amount obtained in step S404. The LUTc is a table that determines the distribution of lightness contribution and saturation contribution, and can be appropriately defined according to the target image quality.
続いて、次式により色別強調量を決定する。
Cr(x,y)=Y(x,y)×rate3+R(x,y)×rate4
Cg(x,y)=Y(x,y)×rate3+G(x,y)×rate4
Cb(x,y)=Y(x,y)×rate3+B(x,y)×rate4
Subsequently, the emphasis amount for each color is determined by the following equation.
Cr (x, y) = Y (x, y) × rate3 + R (x, y) × rate4
Cg (x, y) = Y (x, y) × rate3 + G (x, y) × rate4
Cb (x, y) = Y (x, y) × rate3 + B (x, y) × rate4
あるいは、色別強調量は、次式を用いて決定してもよい。
Cr(x,y)=C(x,y)×R(x,y)/Y(x,y)
Cg(x,y)=C(x,y)×G(x,y)/Y(x,y)
Cb(x,y)=C(x,y)×B(x,y)/Y(x,y)
Alternatively, the color enhancement amount may be determined using the following equation.
Cr (x, y) = C (x, y) × R (x, y) / Y (x, y)
Cg (x, y) = C (x, y) × G (x, y) / Y (x, y)
Cb (x, y) = C (x, y) × B (x, y) / Y (x, y)
続いて、上記2式のいずれかを用いて計算した色別強調量を、次式に示すように入力信号に加算にすることにより、シャープネスを強調する(S406)。
R´(x,y)=R(x,y)+Cr(x,y)
G´(x,y)=G(x,y)+Cg(x,y)
B´(x,y)=B(x,y)+Cb(x,y)
Next, the sharpness is enhanced by adding the color-specific enhancement amount calculated using either of the above two formulas to the input signal as shown in the following formula (S406).
R ′ (x, y) = R (x, y) + Cr (x, y)
G ′ (x, y) = G (x, y) + Cg (x, y)
B ′ (x, y) = B (x, y) + Cb (x, y)
色別強調量の加算によりシャープネスを強調すれば、色味に応じたシャープネス強調を実現することができる。この場合、太い血管と隆起物の陰とでは強調される色味成分が異なるため、影が血管と誤認されることはなくなる。 If sharpness is enhanced by adding the amount of enhancement for each color, it is possible to realize sharpness enhancement according to the color. In this case, since the emphasized color component is different between the thick blood vessel and the shadow of the raised object, the shadow is not mistaken for the blood vessel.
なお、上記説明から明らかであるように、明彩度調整部413とシャープネス調整部414は、いずれも輝度ボケ画像を生成し、処理に利用する。よって、図2のセレクタ417aの前段に、輝度ボケ画像を生成する処理部を備え、その処理部により生成された輝度ボケ画像が、明彩度調整部413やシャープネス調整部414に入力されるようにしてもよい。この場合、輝度ボケ画像の生成に使用する画像処理フィルタは、2種類の機能を兼ね備えたフィルタとする。
As is clear from the above description, the brightness /
なお、シャープネス調整部414が使用するルックアップテーブルや画像処理フィルタは、図2のメモリ43に記憶されており、図4を参照して説明した手順でマイコン42からシャープネス調整部414に供給される。
Note that the look-up table and the image processing filter used by the
2.5 色相調整部
色相調整部415は、診断に必要な色相を拡大し、診断に不要な色相を縮小する画像処理を行う。
2.5 Hue Adjustment Unit The
内視鏡検査では、色素を含む検査薬を散布して観察を行うことがある。例えば、胃の内壁にインジゴカルミンと呼ばれる濃青色の検査薬を散布すると、粘膜面の谷間に検査薬が貯留するので、胃壁の凹凸を赤と青の色のコントラストとして観察できるようになる。また、メチレンブルーと呼ばれる同じく濃青色の検査薬を散布した場合、正常な粘膜は青く染まるが、腫瘍は染まらない。このため、腫瘍の有無および場所を確認することができる。 In endoscopy, observation may be performed by spraying a test drug containing a pigment. For example, when a deep blue test drug called indigo carmine is sprayed on the inner wall of the stomach, the test drug accumulates in the valleys of the mucosal surface, so that the unevenness of the stomach wall can be observed as a contrast between red and blue colors. In addition, when spraying a deep blue test agent called methylene blue, the normal mucous membrane is stained blue, but the tumor is not stained. Therefore, the presence and location of the tumor can be confirmed.
一方、そのような検査では、肌の色合いが部分ごとに少しずつ違うといった情報は、診断には不要である。 On the other hand, in such examinations, information that the skin tone is slightly different for each part is not necessary for diagnosis.
図15は、色相調整部415の処理の概要を示すフローチャートである。色相調整部415では、まずRGB信号をHSV信号に変換して色相成分のみを抽出ことによって、色相分布を表す色相画像を生成する(S501)。続いて、色相画像を構成する各画素の値H(x,y)を、ルックアップテーブルLUThを用いて変換する(S502)。
FIG. 15 is a flowchart showing an outline of processing of the
LUThは、診断に必要な色の範囲で色相が拡大され、診断に不要な色の範囲で色相が狭くなるように設計されたテーブルである。 The LUTh is a table designed so that the hue is expanded in the color range necessary for diagnosis and the hue is narrowed in the color range unnecessary for diagnosis.
例えば、図16に例示するLUThによれば、青紫色が、より青に近い色に置き換えられる。このLUThを用いて画像を処理すれば、青紫色の検査薬を散布して撮影を行った場合に検査薬が付着している部分と付着していない肌の部分の色のコントラストを大きくすることができる。また、図16のLUThによれば、赤からピンクにかけての色は、すべて同じピンクに置き換えられる。このため、このLUThを用いて画像を処理すれば、肌の赤みの微妙な差は、画像には表れなくなる。 For example, according to LUTh illustrated in FIG. 16, blue-violet is replaced with a color closer to blue. If the image is processed using this LUTh, the color contrast between the part where the test drug is attached and the part of the skin where the test drug is not attached will be increased when shooting is performed by spraying a blue-violet test drug. Can do. Further, according to the LUTh in FIG. 16, all the colors from red to pink are replaced with the same pink. For this reason, if an image is processed using this LUTh, a subtle difference in skin redness does not appear in the image.
また、図17に例示するLUThは、ヘモグロビンの色素の色のみを緑色に置き換え、他の色の置き換えは行わないテーブルである。このテーブルは、血液の色と肌の色との差を拡大して、血流の観察に適した画像を生成することを目的として設計されたものである。 The LUTh illustrated in FIG. 17 is a table in which only the color of the hemoglobin pigment is replaced with green and other colors are not replaced. This table is designed for the purpose of generating an image suitable for blood flow observation by enlarging the difference between the color of blood and the color of skin.
内視鏡画像では、撮影で取得される色の範囲は赤っぽい色に限られており、検査薬の色を除けば、青や緑色の対象が撮影されることは有り得ない。このため、血液の色を緑色にするといった置換を行っても、緑色に置換したことによって他の緑色の対象と区別がつかなくなるといった心配はない。したがって、内視鏡の画像処理では、図17に例示するような極端な色相拡大処理を行うこともできる。 In the endoscopic image, the range of colors acquired by photographing is limited to a reddish color, and a blue or green target cannot be photographed except for the color of the test agent. For this reason, even if the replacement is performed such that the color of the blood is changed to green, there is no concern that the replacement with green does not make it indistinguishable from other green objects. Therefore, in the endoscope image processing, it is possible to perform an extreme hue enlargement process as exemplified in FIG.
色相調整部415は、ステップS502においてLUThを用いて色を置き換えることにより色相を拡大したり縮小したりした後、LUThによる変換後の色相データH´(x,y)を色相成分とするHSV信号をRGB信号に変換する(S503)。
In step S502, the
LUThとしては、ユーザである医師の考え方、内視鏡メーカーの設計方針、使用される検査薬の種類、観察される部位、観察の目的などに応じて設計された複数のテーブルを用意しておくことが好ましい。このテーブルは、電子内視鏡システム1を提供するメーカーが提供してもよいし、ユーザが自ら作成することもできる。LUThは、図2のメモリ43に記憶されており、図4を参照して説明した手順でマイコン42から色相調整部415に供給される。
As LUTh, a plurality of tables designed in accordance with the concept of the doctor who is the user, the design policy of the endoscope manufacturer, the type of test agent used, the site to be observed, the purpose of observation, etc. are prepared. It is preferable. This table may be provided by the manufacturer that provides the
なお、上記例ではHSV空間において色相調整を行っているが、RGB信号をLab信号に変換して、a成分とb成分をルックアップテーブルにより変換した後にRGB信号に戻してもよい。 In the above example, the hue adjustment is performed in the HSV space. However, the RGB signal may be converted into the Lab signal, and the a component and the b component may be converted by the lookup table and then returned to the RGB signal.
また、他の色空間への変換は行わずに、標準画像生成部411や色置換部412と同様に3次元LUTを用意しておき、入力されたRGB信号を、色相調整後のRGB信号に直接置き換えるようにしてもよい。
Further, a 3D LUT is prepared in the same manner as the standard
以上、本発明の一実施形態について詳細に説明したが、本発明の範囲は特許請求の範囲によって定められるべきものであり、上記実施形態には限定されない。 As mentioned above, although one Embodiment of this invention was described in detail, the scope of the present invention should be defined by a claim, and is not limited to the said embodiment.
1 電子内視鏡システム
2 電子内視鏡(スコープ)
3 処理装置(プロセッサ)
33,34 セレクタ
4 画像処理専用基板
417a〜e セレクタ
5,6 3次元ルックアップテーブル
1
3 Processing unit (processor)
33, 34 selector
4
Claims (9)
取得すべき色情報の色空間が相互に異なる複数機種の電子内視鏡を選択的に接続し得る接続部、
観察対象の撮影により電子内視鏡が取得し得る色を表す値と前記観察対象の真の色を表す値との対応付けが記憶された、前記電子内視鏡の機種ごとの複数の置換テーブル、
当該処理装置に接続されている電子内視鏡から該電子内視鏡の機種を表す情報を取得することにより、該電子内視鏡の機種を判別する機種判別手段、
前記機種判別手段により判別された機種用の置換テーブルに記憶された対応付けを利用して当該処理装置に接続されている電子内視鏡により取得された色の値を置き換えることにより、観察対象の真の色を忠実に再現した画像を生成する忠実色再現画像生成手段、
画像処理の内容を規定する設定情報を、内視鏡検査の目的ごとに記憶し得る設定情報記憶手段、および
前記設定情報記憶手段が記憶する設定情報のうち当該処理装置に入力された選択信号に基づいて選択された一の設定情報を参照して、前記忠実色再現画像生成手段により生成された画像の画像処理を行う画像処理手段
を備えたことを特徴とする電子内視鏡装置。 An electronic endoscope apparatus comprising an electronic endoscope and a processing device that processes an image acquired by the electronic endoscope, wherein the processing device includes:
A connection unit that can selectively connect multiple types of electronic endoscopes having different color spaces for color information to be acquired ,
A plurality of replacement tables for each model of the electronic endoscope, in which a correspondence between a value representing a color that can be acquired by the electronic endoscope by photographing the observation target and a value representing the true color of the observation target is stored ,
A model discriminating means for discriminating the model of the electronic endoscope by acquiring information representing the model of the electronic endoscope from the electronic endoscope connected to the processing apparatus;
By replacing the color value acquired by the electronic endoscope connected to the processing device using the association stored in the replacement table for the model determined by the model determining means, Faithful color reproduction image generation means for generating an image faithfully reproducing the true color,
Setting information storage means that can store setting information that defines the contents of image processing for each purpose of endoscopy, and among selection information stored in the setting information storage means, a selection signal input to the processing device An electronic endoscope apparatus comprising image processing means for performing image processing of an image generated by the faithful color reproduction image generation means with reference to one setting information selected based on the setting information.
前記設定情報に、前記複数の処理部のうち処理を実行させる1以上の処理部を指定する情報が含まれていることを特徴とする請求項1から4のいずれか1項記載の電子内視鏡装置。 The image processing means includes a plurality of processing units that execute different image processing,
5. The electronic internal view according to claim 1, wherein the setting information includes information specifying one or more processing units that execute processing among the plurality of processing units. 6. Mirror device.
前記設定情報に、前記データ記憶手段が記憶しているデータのうち処理に使用する1以上のデータを指定する情報が含まれていることを特徴とする請求項1から8のいずれか1項記載の電子内視鏡装置。 Data storage means capable of storing data referred to by the image processing means;
9. The information according to claim 1, wherein the setting information includes information specifying one or more data to be used for processing among data stored in the data storage unit. Electronic endoscope device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005305262A JP4933766B2 (en) | 2004-10-20 | 2005-10-20 | Electronic endoscope device |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004305023 | 2004-10-20 | ||
JP2004305023 | 2004-10-20 | ||
JP2005305262A JP4933766B2 (en) | 2004-10-20 | 2005-10-20 | Electronic endoscope device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006142002A JP2006142002A (en) | 2006-06-08 |
JP4933766B2 true JP4933766B2 (en) | 2012-05-16 |
Family
ID=36622316
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005305262A Expired - Fee Related JP4933766B2 (en) | 2004-10-20 | 2005-10-20 | Electronic endoscope device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4933766B2 (en) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5557091B2 (en) * | 2010-03-30 | 2014-07-23 | 日本電気株式会社 | Image processing apparatus, image reading apparatus, image processing method, and image processing program |
JP6067264B2 (en) * | 2012-07-17 | 2017-01-25 | Hoya株式会社 | Image processing apparatus and endoscope apparatus |
DE112016000094B4 (en) | 2015-08-13 | 2019-07-11 | Hoya Corporation | Apparatus for calculating analysis values and electronic endoscope system |
DE112016000095B4 (en) | 2015-08-13 | 2019-07-11 | Hoya Corporation | Apparatus for calculating analysis values and electronic endoscope system |
JP6270967B2 (en) * | 2016-11-17 | 2018-01-31 | Hoya株式会社 | Image processing apparatus and endoscope apparatus |
JP6694046B2 (en) * | 2018-12-17 | 2020-05-13 | 富士フイルム株式会社 | Endoscope system |
EP3929647A4 (en) * | 2019-02-14 | 2022-11-23 | Dai Nippon Printing Co., Ltd. | Medical instrument color correction device |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0789672B2 (en) * | 1986-05-14 | 1995-09-27 | 株式会社東芝 | Endoscope device |
JP2643948B2 (en) * | 1987-08-10 | 1997-08-25 | オリンパス光学工業株式会社 | Electronic endoscope device |
JPH0783B2 (en) * | 1987-03-30 | 1995-01-11 | 株式会社東芝 | Electronic endoscopic device |
JPS6379631A (en) * | 1987-08-07 | 1988-04-09 | オリンパス光学工業株式会社 | Endoscope imaging apparatus |
JPH01113018A (en) * | 1987-10-26 | 1989-05-01 | Olympus Optical Co Ltd | Endoscopic color enhancement apparatus |
JPH06304135A (en) * | 1993-04-27 | 1994-11-01 | Olympus Optical Co Ltd | Electronic endoscope device |
JP2004000335A (en) * | 2002-05-31 | 2004-01-08 | Olympus Corp | Electronic endoscope apparatus |
-
2005
- 2005-10-20 JP JP2005305262A patent/JP4933766B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2006142002A (en) | 2006-06-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7627189B2 (en) | Sharpness adjustment method and program and electronic endoscope apparatus | |
JP3869698B2 (en) | Electronic endoscope device | |
US7042488B2 (en) | Electronic endoscope for highlighting blood vessel | |
JP6420230B2 (en) | Endoscope system, processor device, and operation method of endoscope system | |
JP3217343B2 (en) | Image processing device | |
JP2006061620A (en) | Video signal processor for endoscope | |
JP2007300972A (en) | Image processor for endoscope | |
BRPI0609099A2 (en) | biological observation apparatus | |
WO2017110180A1 (en) | Endoscopic system, processor device, and method for operating endoscopic system | |
JP6196598B2 (en) | Endoscope system, processor device, operation method of endoscope system, and operation method of processor device | |
US7791651B2 (en) | Brightness adjustment method and image processing apparatus | |
JP2017192594A (en) | Endoscope system, processor device, and operation method of endoscope system | |
US8675058B2 (en) | Electronic endoscope apparatus | |
US20060082647A1 (en) | Electronic endoscope apparatus | |
JP4933766B2 (en) | Electronic endoscope device | |
JP5173130B2 (en) | Electronic endoscope device | |
US20220383492A1 (en) | Image processing device, endoscope system, and image processing method | |
JP2010200883A (en) | Device, method, and program for processing endoscopic image | |
JP4606838B2 (en) | Electronic endoscope device | |
JP5079576B2 (en) | Electronic endoscope system | |
JP2006142004A (en) | Sharpness adjustment method, program and electronic endoscope apparatus | |
JP2006142003A (en) | Brightness adjustment method, image processing apparatus and image processing program | |
WO2018079217A1 (en) | Endoscopic system and operation method thereof | |
JP6153913B2 (en) | Endoscope system, processor device, operation method of endoscope system, and operation method of processor device | |
JP4575626B2 (en) | Electronic endoscope apparatus and pseudo dye distribution processing apparatus for electronic endoscope |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20061212 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080901 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20100614 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110415 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110419 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110616 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110705 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120214 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120217 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4933766 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150224 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |