JP2022133968A - Image calibration device - Google Patents

Image calibration device Download PDF

Info

Publication number
JP2022133968A
JP2022133968A JP2021032945A JP2021032945A JP2022133968A JP 2022133968 A JP2022133968 A JP 2022133968A JP 2021032945 A JP2021032945 A JP 2021032945A JP 2021032945 A JP2021032945 A JP 2021032945A JP 2022133968 A JP2022133968 A JP 2022133968A
Authority
JP
Japan
Prior art keywords
chart
image
images
optical
calculates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021032945A
Other languages
Japanese (ja)
Other versions
JP7582882B2 (en
Inventor
浩 露木
Hiroshi Tsuyuki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2021032945A priority Critical patent/JP7582882B2/en
Priority claimed from JP2021032945A external-priority patent/JP7582882B2/en
Publication of JP2022133968A publication Critical patent/JP2022133968A/en
Application granted granted Critical
Publication of JP7582882B2 publication Critical patent/JP7582882B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)
  • Endoscopes (AREA)
  • Studio Devices (AREA)

Abstract

To provide an image calibration device which reduces degradation of quality of a synthesized image and artifact when two images are synthesized in an endoscope system.SOLUTION: An image calibration device has: a first chart; a second chart; a third chart; a light source irradiating the first, second and third charts with illumination light; a stage mounting the first, second, and third charts; and a calibration processor. The calibration processor has: a first calculation part calculating space frequency characteristic value of two first images obtained by capturing an image of the first chart respectively; a second calculation part calculating difference in a relative position relation between two second images obtained by capturing an image of the second chart with an optical device; a third calculation part calculating difference in relative brightness ratio of two images of the third chart for every RGB signal; and a parameter calculation part calculating a first correction parameter and a second correction parameter.SELECTED DRAWING: Figure 2

Description

本発明は、画像キャリブレーション装置に関するものである。例えば、医療用分野や工業用分野などで用いられる内視鏡の画像合成における画像キャリブレーション装置に関する。 The present invention relates to an image calibration device. For example, the present invention relates to an image calibration device for image synthesis of endoscopes used in medical and industrial fields.

内視鏡は、医療用分野及び工業用分野で広く使用されている装置である。特に、医療用分野においては、体腔内に挿入された内視鏡により得られる画像で、観察部位の診断や治療に利用されている。 Endoscopes are devices that are widely used in the medical and industrial fields. In particular, in the medical field, an image obtained by an endoscope inserted into a body cavity is used for diagnosis and treatment of an observation site.

一般に、内視鏡システムを始め、撮像素子を備えた機器において、撮像素子の高画素化に伴い、被写界深度が狭くなることが知られている。すなわち、撮像素子において、画素数を増やすために画素ピッチ(1画素の縦横の寸法)を小さくすると、これに伴って許容錯乱円も小さくなるため、撮像装置の被写界深度が狭くなる。 2. Description of the Related Art Generally, it is known that in endoscope systems and other devices equipped with an imaging device, the depth of field becomes narrower as the number of pixels of the imaging device increases. That is, if the pixel pitch (the vertical and horizontal dimensions of one pixel) is reduced in order to increase the number of pixels in an image pickup device, the permissible circle of confusion will also become smaller, and the depth of field of the image pickup device will be narrower.

以下の特許文献1、2、3、4には、ピントが異なる2つの画像を同時に取得して画像合成する深度拡大内視鏡が提案されている。 The following Patent Documents 1, 2, 3, and 4 propose depth-enhancing endoscopes that acquire two images with different focal points at the same time and synthesize the images.

内視鏡対物光学系からの像を偏光ビームスプリッター(PBS)で2つに分割し、分割した2画像を合成して、深度拡大やダイナミックレンジ拡大、解像力向上をする内視鏡がある。この際、画像合成処理を行う事前処理として、2画像の幾何学的な位置合わせをし、併せて明るさや色調を略同一に補正するキャリブレーション処理が実施される。 There is an endoscope that divides an image from an endoscope objective optical system into two by a polarizing beam splitter (PBS), synthesizes the two divided images, and expands the depth, expands the dynamic range, and improves the resolution. At this time, as pre-processing for image synthesis processing, calibration processing is performed for geometrically aligning the two images and correcting the brightness and color tone to substantially the same.

国際公開第2013/027459号WO2013/027459 国際公開第2013/061819号WO2013/061819 国際公開第2014/002740号WO2014/002740 国際公開第2016/043107号WO2016/043107

特許文献1は、2つの画像の位置、倍率、回転、色調、明るさの差異を画像処理にて補正して、画像を合成する深度拡大内視鏡システムが提案されている。特許文献2、3では、補正値を固有の補正パラメータとして保持し、画像処理部に対象の内視鏡が接続されると連動して、前述の補正パラメータを読み出してリアルタイムに補正する内視鏡システムが提案されている。特許文献4は、狭帯域観察においても最適な合成被写界深度が得られるように、内視鏡の観察モードに応じて補正パラメータを切替える内視鏡システムが提案されている。 Japanese Patent Application Laid-Open No. 2002-200002 proposes a depth-enhancing endoscope system that corrects differences in position, magnification, rotation, color tone, and brightness of two images by image processing and synthesizes the images. In Patent Documents 2 and 3, the correction value is held as a unique correction parameter, and when the target endoscope is connected to the image processing unit, the endoscope reads out the correction parameter and corrects it in real time. A system is proposed. Patent Literature 4 proposes an endoscope system that switches correction parameters according to the observation mode of the endoscope so that the optimum synthetic depth of field can be obtained even in narrowband observation.

特許文献1、2、3、4は、補正パラメータ自体の具体的な取得方法や構成は開示していない。このため、2つの画像を合成する際、最適な補正が行われない場合、合成画像の画質の劣化やアーチファクト(ノイズ)が生じるという課題がある。 Patent Documents 1, 2, 3, and 4 do not disclose a specific acquisition method or configuration of the correction parameters themselves. Therefore, when two images are synthesized, if the optimum correction is not performed, there is a problem that the image quality of the synthesized image deteriorates and artifacts (noise) occur.

2つの画像の位置合わせにおいて、内視鏡対物光学系に対して位置合わせ用のチャートを配置して撮像し、キャリブレーションを実施するが、適切でない観察距離にチャートを配置すると、精密な位置合わせが出来ないという課題がある。また、明るさや色調を補正する際に、適切でないチャートや光源を対象にすると偏光依存、波長依存の影響で、正しいキャリブレーションが出来ず、合成画像ではアーチファクトが生じ易くなるという課題がある。更に内視鏡システムには、様々な観察モードがあり、明るさや色調の特性が各々で異なることから、観察モードを切替えると最適な補正状態から外れてしまうという課題がある。 When aligning two images, a chart for alignment is placed on the objective optical system of the endoscope, the image is captured, and calibration is performed. There is a problem that it is not possible to In addition, when correcting brightness and color tone, if an inappropriate chart or light source is used, correct calibration cannot be performed due to the influence of polarization dependence and wavelength dependence, and artifacts are likely to occur in the composite image. Furthermore, the endoscope system has various observation modes, each of which has different characteristics of brightness and color tone. Therefore, there is a problem that switching the observation mode deviates from the optimum correction state.

本発明は、このような問題点に鑑みてなされたものであり、内視鏡システムにおいて2つの画像を合成する際、予め最適な補正パラメータを取得することで、合成した画像の画質の劣化やアーチファクト(ノイズ)を低減する画像キャリブレーション装置を提供することを目的とする。 The present invention has been made in view of such problems. An object of the present invention is to provide an image calibration device that reduces artifacts (noise).

上述した課題を解決し、目的を達成するために、本発明の少なくとも幾つかの実施形態の画像キャリブレーション装置は、物体側から順に、対物光学系と、対物光学系で得られた被写体像を光路差の異なる2つの光学像に分割する光路分割部と、2つの光学像から2つの画像を取得する撮像素子と、を有する光学装置のための画像キャリブレーション装置であって、
第1のチャートと、
第2のチャートと、
第3のチャートと、
第1のチャートと第2のチャートと第3のチャートへ照明光を照射する光源と、
第1のチャート、第2のチャート及び第3のチャートを載置するステージと、
キャリブレーションプロセッサと、を有し
キャリブレーションプロセッサは、
第1のチャートを撮像して得られる第1の2つの画像それぞれの空間周波数特性値を算出する第1の算出部と、
第1の2つの画像の空間周波数特性値が、同等となる第1のチャートの位置に、第2のチャートを配置した状態で、第2のチャートを光学装置により、撮像して得られる第2の2つの画像の相対的な位置関係の差異を算出する第2の算出部と、
光源によって照明された第3のチャートを光学装置により、撮像して得られる第3の2つの画像の相対的な明るさ比率の差異をRGB信号ごとに算出する第3の算出部と、位置関係の差異を補正する第1の補正パラメータと、明るさ比率の差異を補正する第2の補正パラメータを算出するパラメータ算出部と、
を有する。
In order to solve the above-described problems and achieve the object, an image calibration device according to at least some embodiments of the present invention comprises an objective optical system and an object image obtained by the objective optical system, in order from the object side. An image calibration device for an optical device having an optical path splitting unit that splits into two optical images with different optical path differences, and an imaging device that acquires two images from the two optical images,
a first chart;
a second chart;
a third chart;
a light source that irradiates the first chart, the second chart, and the third chart with illumination light;
a stage on which the first chart, the second chart and the third chart are placed;
a calibration processor, the calibration processor comprising:
a first calculator that calculates spatial frequency characteristic values of each of the first two images obtained by imaging the first chart;
A second image obtained by imaging the second chart with an optical device in a state where the second chart is placed at a position of the first chart where the spatial frequency characteristic values of the first two images are equivalent. a second calculator that calculates the difference in the relative positional relationship between the two images of
a third calculator for calculating, for each RGB signal, a difference in relative brightness ratio between two third images obtained by imaging a third chart illuminated by a light source with an optical device; A parameter calculation unit that calculates a first correction parameter for correcting the difference in the brightness ratio and a second correction parameter for correcting the difference in the brightness ratio;
have

本発明は、内視鏡システムにおいて2つの画像を合成する際、予め最適な補正パラメータを取得することで、合成した画像の画質の劣化やアーチファクト(ノイズ)を低減する画像キャリブレーション装置を提供できるという効果を奏する。 INDUSTRIAL APPLICABILITY The present invention can provide an image calibration device that reduces deterioration in image quality and artifacts (noise) of a synthesized image by obtaining optimum correction parameters in advance when synthesizing two images in an endoscope system. It has the effect of

実施形態に係る画像キャリブレーション装置の斜視構成図である。1 is a perspective configuration diagram of an image calibration device according to an embodiment; FIG. 実施形態に係る画像キャリブレーション装置の構成図である。1 is a configuration diagram of an image calibration device according to an embodiment; FIG. 画像キャリブレーション装置に設置する光学装置が有する対物光学系、光路分割部及び撮像素子の断面構成を示す図(通常観察状態)である。FIG. 4 is a diagram (normal observation state) showing a cross-sectional configuration of an objective optical system, an optical path splitter, and an imaging device of an optical device installed in an image calibration device; 光学装置が有する偏光解消板と、光路分割部と撮像素子との概略構成図である。FIG. 2 is a schematic configuration diagram of a depolarizing plate, an optical path dividing section, and an imaging element included in an optical device; 光学装置が有する撮像素子の概略構成図である。2 is a schematic configuration diagram of an imaging element included in the optical device; FIG. 実施形態に係る画像キャリブレーション装置のキャリブレーション工程を示すフローチャートである。4 is a flow chart showing a calibration process of the image calibration device according to the embodiment; (a)は、第1のチャートを示す図である。(b)は、撮像素子が撮像した第1のチャートの2つの画像を示す図である。(a) is a diagram showing a first chart. (b) is a diagram showing two images of the first chart captured by the imaging device. 第1のチャートの2つの画像の空間周波数特性値を示す図である。It is a figure which shows the spatial frequency characteristic value of two images of a 1st chart. 実施形態に係る画像キャリブレーション装置の他の斜視構成図である。FIG. 3 is another perspective configuration diagram of the image calibration device according to the embodiment; 第2のチャートを示す図である。FIG. 10 is a diagram showing a second chart; 撮像素子が撮像した第2のチャートの2つの画像を示す図である。It is a figure which shows two images of the 2nd chart which the imaging device imaged. 実施形態に係る画像キャリブレーション装置の別の斜視構成図である。3 is another perspective configuration diagram of the image calibration device according to the embodiment; FIG. 撮像素子が撮像した第3のチャートの2つの画像を示す図である。It is a figure which shows two images of the 3rd chart which the imaging device imaged. 第3のチャートの分光分布特性を示す図である。It is a figure which shows the spectral distribution characteristic of a 3rd chart. 内視鏡システムの構成を示す機能ブロック図である。It is a functional block diagram which shows the structure of an endoscope system.

以下に、実施形態に係る画像キャリブレーション装置を図面に基づいて詳細に説明する。なお、この実施形態により、この発明が限定されるものではない。 An image calibration device according to an embodiment will be described in detail below with reference to the drawings. In addition, this invention is not limited by this embodiment.

図1は、実施形態に係る画像キャリブレーション装置100の斜視構成図である。図2は、画像キャリブレーション装置100の他の構成図である。 FIG. 1 is a perspective configuration diagram of an image calibration device 100 according to an embodiment. FIG. 2 is another configuration diagram of the image calibration device 100. As shown in FIG.

画像キャリブレーション装置100は、物体側から順に、対物光学系OBL(図3)と、対物光学系OBLで得られた被写体像を光路差の異なる2つの光学像に分割する光路分割部120と、2つの光学像から2つの画像を取得する撮像素子122と、を有する光学装置200のための画像キャリブレーション装置100である。光学装置200は、被写界深度を拡大できる内視鏡システム1(図15)が有している。内視鏡システム1の構成と、光学装置200の構成とは後述する。 The image calibration device 100 includes, in order from the object side, an objective optical system OBL (FIG. 3), an optical path splitter 120 that splits the subject image obtained by the objective optical system OBL into two optical images with different optical path differences, An image calibration device 100 for an optical device 200 having an imaging device 122 that acquires two images from two optical images. The optical device 200 is included in the endoscope system 1 (FIG. 15) capable of increasing the depth of field. The configuration of the endoscope system 1 and the configuration of the optical device 200 will be described later.

図2に示すように、画像キャリブレーション装置100は、第1のチャート101(図7)と、第2のチャート102(図10)と、第3のチャート103(図2)と、これらのチャート101、102、103へ導光路116を介して照明光を照射する光源115と、第1のチャート101、第2のチャート102及び第3のチャート103を載置するステージ104と、キャリブレーションプロセッサ108(図2)と、を有する。 As shown in FIG. 2, the image calibration device 100 includes a first chart 101 (FIG. 7), a second chart 102 (FIG. 10), a third chart 103 (FIG. 2), and these charts. 101, 102, 103 through a light guide path 116, a stage 104 on which the first chart 101, the second chart 102 and the third chart 103 are placed, and a calibration processor 108. (FIG. 2).

後述するプロセッサ装置4は、光源115を有する。光源115は、第1、第2、第3のチャート101、102、103を照明するための光を供給する。光源115からの光は、導光路116により、第1のチャート101、第2のチャート102、第3のチャート103が載置されている方向へ導光される。 The processor unit 4, which will be described later, has a light source 115. As shown in FIG. A light source 115 provides light for illuminating the first, second and third charts 101 , 102 , 103 . Light from the light source 115 is guided by the light guide path 116 in the direction in which the first chart 101, the second chart 102, and the third chart 103 are placed.

導光路116は、光ファイバ等で構成できる。第1のチャート101、第2のチャート102は、透過型のチャートである。導光路116aから射出する光は、第1のチャート101または第2のチャート102を紙面左方側から照射する。導光路116bから射出する光は、第3のチャート103(積分球)内へ導かれる。 The light guide path 116 can be composed of an optical fiber or the like. The first chart 101 and the second chart 102 are transmissive charts. The light emitted from the light guide path 116a irradiates the first chart 101 or the second chart 102 from the left side of the paper surface. Light emitted from the light guide path 116b is guided into the third chart 103 (integrating sphere).

例えば、光源115からの光は、導光路116で導光され、バックライトを点灯させる。導光された光は、バックライトに併設される透過型の第1のチャート101、または第2のチャート102を照射する。 For example, light from the light source 115 is guided through the light guide path 116 to light the backlight. The guided light irradiates a transmissive first chart 101 or second chart 102 provided side by side with the backlight.

光学装置200は、バックライトで照射された第1のチャート101、第2のチャート102を撮像する。 The optical device 200 captures images of the first chart 101 and the second chart 102 illuminated by the backlight.

第3のチャート103(積分球)に関しては、光源115から導光路116bで導光された照明光は、積分球内を照射する。 As for the third chart 103 (integrating sphere), illumination light guided from the light source 115 through the light guide path 116b illuminates the interior of the integrating sphere.

光学装置200は、積分球内部を撮像する。なお、変形例として、光源115を外付けで別途設置する構成でも良い。さらに、光源115として、内視鏡システム1が有する内視鏡用照明光学系のための光源装置3(図15)からの照明光を用いることもできる。 The optical device 200 images the inside of the integrating sphere. As a modification, the light source 115 may be externally installed separately. Further, as the light source 115, illumination light from the light source device 3 (FIG. 15) for the endoscope illumination optical system of the endoscope system 1 can be used.

図2に戻って説明を続ける。キャリブレーションプロセッサ108は、第1の算出部110と、第2の算出部111と、第3の算出部112と、パラメータ算出部113と、を有する。 Returning to FIG. 2, the description continues. The calibration processor 108 has a first calculator 110 , a second calculator 111 , a third calculator 112 and a parameter calculator 113 .

第1の算出部110は、第1のチャート101を撮像して得られる第1の2つの画像101a、101b(図7(b))それぞれの空間周波数特性値を算出する。 The first calculator 110 calculates the spatial frequency characteristic values of the first two images 101a and 101b (FIG. 7B) obtained by imaging the first chart 101 .

次に、第2の算出部111は、第1の2つの画像101a、101bの空間周波数特性値が、同等となる位置Lに、第2のチャート102を配置した状態で、第2のチャート102を光学装置200により撮像して得られる第2の2つの画像102a、102b(図11)の相対的な位置関係の差異を算出する、 Next, the second calculation unit 111 places the second chart 102 at the position L where the spatial frequency characteristic values of the first two images 101a and 101b are equal, and calculates the second chart 102 Calculate the difference in the relative positional relationship between the second two images 102a and 102b (FIG. 11) obtained by imaging with the optical device 200,

第3の算出部112は、光源によって照明された第3のチャート103を光学装置200により、撮像して得られる第3の2つの画像103a、103b(図13)の相対的な明るさ比率の差異をRGB信号ごとに算出する。 The third calculator 112 calculates the relative brightness ratio of the third two images 103a and 103b (FIG. 13) obtained by imaging the third chart 103 illuminated by the light source with the optical device 200. A difference is calculated for each RGB signal.

パラメータ算出部113は、2つの画像102a、102bの位置関係の差異を補正する第1の補正パラメータと、明るさ比率の差異を補正する第2の補正パラメータを算出する。 The parameter calculator 113 calculates a first correction parameter for correcting the difference in positional relationship between the two images 102a and 102b, and a second correction parameter for correcting the difference in brightness ratio.

まず、画像キャリブレーション装置100のキャリブレーションの対象となる光学装置200の例を説明する。図3は、画像キャリブレーション装置100に設置する光学装置200が有する対物光学系OBL、光路分割部120及び撮像素子122の断面構成を示す図(通常観察状態)である。 First, an example of the optical device 200 to be calibrated by the image calibration device 100 will be described. FIG. 3 is a view (normal observation state) showing a cross-sectional configuration of the objective optical system OBL, the optical path splitter 120, and the imaging device 122 of the optical device 200 installed in the image calibration device 100. As shown in FIG.

対物光学系OBLは、レンズL1-L10を有する第1群G1、第2群G2、第3群G3の3群構成である。 The objective optical system OBL has a three-group configuration of a first group G1, a second group G2, and a third group G3 each having lenses L1 to L10.

光学装置200は、物体側から順に、対物光学系OBLと、偏光解消板121aと、対物光学系OBLからの光を2つに分割する光路分割部120と、分割した2つの像を撮像する撮像素子122と、を有する。偏光解消板121aは、対物光学系OBLと光路分割部120との間の光路中に配置される。偏光解消板121aは、偏光を解消する機能を有する。 The optical device 200 includes, in order from the object side, an objective optical system OBL, a depolarizing plate 121a, an optical path splitting section 120 that splits the light from the objective optical system OBL into two, and an imaging device that captures the two split images. element 122; The depolarizing plate 121 a is arranged in the optical path between the objective optical system OBL and the optical path splitter 120 . The depolarizing plate 121a has a function of depolarizing.

図4は、光学装置200が有する偏光解消板121aと、光路分割部120と撮像素子との概略構成図である。 FIG. 4 is a schematic configuration diagram of the depolarizing plate 121a included in the optical device 200, the optical path splitter 120, and the imaging element.

対物光学系OBLを射出した光は、偏光解消板121aを経て、光路分割部120に入射する。偏光解消板121aは、図4を用いて後述するように、簡易な構成で偏光を解消する機能を有する。 The light emitted from the objective optical system OBL enters the optical path splitting section 120 through the depolarizing plate 121a. The depolarizing plate 121a has a function of depolarizing light with a simple structure, as will be described later with reference to FIG.

光路分割部120は、被写体像をピントの異なる2つの光学像に分割する偏光ビームスプリッター121と、2つの光学像を撮像して2つの画像を取得する撮像素子122と、を有する。 The optical path splitter 120 has a polarizing beam splitter 121 that splits the subject image into two optical images with different focus, and an imaging device 122 that captures the two optical images to obtain two images.

偏光ビームスプリッター121は、図5に示すように、物体側のプリズム121b、像側のプリズム121e、ミラー121c、及びλ/4板121dを備えている。物体側のプリズム121b及び像側のプリズム121eは共に光軸AXに対して45度の斜度であるビームスプリット面を有する。 As shown in FIG. 5, the polarizing beam splitter 121 includes an object-side prism 121b, an image-side prism 121e, a mirror 121c, and a λ/4 plate 121d. Both the object-side prism 121b and the image-side prism 121e have beam splitting surfaces that are inclined at 45 degrees with respect to the optical axis AX.

物体側のプリズム121bのビームスプリット面には偏光分離膜121fが形成されている。そして、物体側のプリズム121b及び像側のプリズム121eは、互いのビームスプリット面を偏光分離膜121fを介して当接させて偏光ビームスプリッター121を構成している。 A polarization separating film 121f is formed on the beam splitting surface of the prism 121b on the object side. The object-side prism 121b and the image-side prism 121e constitute a polarizing beam splitter 121 with their beam splitting surfaces in contact with each other via a polarizing splitting film 121f.

また、ミラー121cは、物体側のプリズム121bの端面近傍にλ/4板121dを介して設けられている。像側のプリズム121eの端面には、カバーガラスCGを介して撮像素子122が取り付けられている。Iは、結像面(撮像面)である。 The mirror 121c is provided in the vicinity of the end surface of the prism 121b on the object side via a λ/4 plate 121d. An imaging element 122 is attached to the end face of the prism 121e on the image side via a cover glass CG. I is an imaging plane (imaging plane).

対物光学系OBLからの被写体像は、物体側のプリズム121bにおいてビームスプリット面に設けられた偏光分離膜121fによりP偏光成分(透過光)とS偏光成分(反射光)とに分離され、反射光側の光学像と透過光側の光学像との2つの光学像に分離される。 An object image from the objective optical system OBL is separated into a P-polarized component (transmitted light) and an S-polarized component (reflected light) by a polarization separation film 121f provided on the beam splitting surface of a prism 121b on the object side. is separated into two optical images, an optical image on the side and an optical image on the transmitted light side.

S偏光成分の光学像は、偏光分離膜121fで撮像素子122に対して対面側に反射されA光路を通り、λ/4板121dを透過後、ミラー121cで反射され、撮像素子122側に折り返される。折り返された光学像は、λ/4板121dを再び透過する事で偏光方向が90°回転し、偏光分離膜121fを透過して撮像素子122に結像される。 The optical image of the S-polarized component is reflected by the polarizing separation film 121f toward the imaging device 122, passes through the A optical path, passes through the λ/4 plate 121d, is reflected by the mirror 121c, and is turned back toward the imaging device 122. be The folded optical image is transmitted through the λ/4 plate 121 d again, the polarization direction of which is rotated by 90°, and is transmitted through the polarization separation film 121 f to be imaged on the imaging element 122 .

P偏光成分の光学像は、偏光分離膜121fを透過してB光路を通り、撮像素子122に向かって垂直に折り返す像側のプリズム121eのビームスプリット面と反対側に設けられたミラー面によって反射され、撮像素子122に結像される。この際、A光路とB光路で、例えば、数十μm程度の所定の光路差を生じさせるように、プリズム硝路を設定しておき、ピントが異なる2つの光学像を撮像素子122の受光面に結像させる。 The optical image of the P-polarized component passes through the polarization separation film 121f, passes through the B optical path, and is reflected by a mirror surface provided on the opposite side of the beam splitting surface of the prism 121e on the image side that is vertically folded toward the imaging device 122. and is imaged on the imaging device 122 . At this time, the prism glass path is set so as to generate a predetermined optical path difference of, for example, about several tens of μm between the A optical path and the B optical path, and two optical images with different focal points are captured on the light receiving surface of the image sensor 122. to form an image.

すなわち、物体側のプリズム121b及び像側のプリズム121eが、被写体像をピント位置が異なる2つの光学像に分離できるように、物体側のプリズム121bにおける撮像素子122に至る透過光側の光路長(硝路長)に対して反射光側の光路長が短く(小さく)なるように配置する。 That is, the optical path length ( It is arranged so that the optical path length on the reflected light side is shorter (smaller) than the glass path length).

また、2つの光学像のそれぞれの光路長(硝路長)において、任意の光路長差を得られる構成であれば本実施形態の構成に限られない。例えば、物体側のプリズム121bにおける撮像素子122に至る透過光側の光路長(硝路長)に対して反射光側の光路長が長く(大きく)なるように配置しても良い。 Further, the configuration is not limited to the configuration of the present embodiment as long as the configuration can obtain an arbitrary optical path length difference in each of the optical path lengths (glass path lengths) of the two optical images. For example, the prism 121b on the object side may be arranged so that the optical path length on the reflected light side is longer (larger) than the optical path length (glass path length) on the transmitted light side reaching the image sensor 122 .

図5は、撮像素子122の概略構成図である。撮像素子122は、図5に示すように、ピント位置が異なる2つの光学像を各々個別に受光して撮像するために、撮像素子122の全画素領域の中に、2つの受光領域(有効画素領域)122a、122bが設けられている。 FIG. 5 is a schematic configuration diagram of the imaging element 122. As shown in FIG. As shown in FIG. 5, the imaging element 122 has two light receiving areas (effective pixels regions) 122a and 122b are provided.

図6は、実施形態に係る画像キャリブレーション装置100のキャリブレーション工程を示すフローチャートである。 FIG. 6 is a flow chart showing the calibration process of the image calibration device 100 according to the embodiment.

ステップS1において、第1のチャート101をステージ104上のホルダ106に設置する。図7(a)は、第1のチャート101の正面図である。 In step S<b>1 , the first chart 101 is placed on the holder 106 on the stage 104 . FIG. 7A is a front view of the first chart 101. FIG.

第1のチャート101は、空間周波数特性値を求めるチャートであって、第1のチャート101は、白黒エッジ稜線101bkを含むチャートパターンを有する。第1のチャート101は、2つの画像101a、101bの視野中心122ac、122bcと、白黒エッジ稜線101abk、101bbkとがそれぞれ交わる様に配置される。 The first chart 101 is a chart for obtaining spatial frequency characteristic values, and has a chart pattern including black and white edge lines 101bk. The first chart 101 is arranged so that the visual field centers 122ac and 122bc of the two images 101a and 101b intersect with the black and white edge ridgelines 101abk and 101bbk, respectively.

一般的に空間周波数特性値(ここでは解像度と同義とする)の評価には、ISO12233で定義されている視覚解像度や限界解像度(SIN波チャート)、SFR(Spatial Frequency Response)チャート等が用いられる。本実施形態における第1のチャート101は、特にSFRチャートである事が望ましい。理由を以下に述べる。 Generally, the visual resolution defined by ISO12233, the limit resolution (SIN wave chart), the SFR (Spatial Frequency Response) chart, etc. are used for evaluation of the spatial frequency characteristic value (which is synonymous with resolution here). The first chart 101 in this embodiment is preferably an SFR chart. The reason is as follows.

後述する第2のチャート102の観察距離Lを求めるために、A、B光路夫々において、任意のステップ幅で観察距離毎の空間周波数特性値を得る必要がある。視覚解像度や限界解像度を評価するチャートを用いる場合、観察距離毎にピッチパターンを変えたチャートを用意するか、観察倍率に応じた補正係数を考慮する必要がある。その場合、画像キャリブレーション装置100の構成が複雑化することや、コストが高くなり好ましくない。そのため、本実施形態では、観察倍率の影響を受けないSFRチャートを用いる。 In order to obtain the observation distance L of the second chart 102 to be described later, it is necessary to obtain the spatial frequency characteristic value for each observation distance with an arbitrary step width in each of the A and B optical paths. When using a chart for evaluating visual resolution or limit resolution, it is necessary to prepare a chart with a different pitch pattern for each observation distance, or to consider a correction coefficient according to the observation magnification. In that case, the configuration of the image calibration apparatus 100 becomes complicated and the cost increases, which is not preferable. Therefore, in this embodiment, an SFR chart that is not affected by observation magnification is used.

ステップS2において、撮像素子122は、近点にピントが合った画像(以下、「近点画像」という)である画像101aを撮像する。撮像素子122は、遠点にピントが合った画像(以下、「遠点画像」という)である画像101bを撮像する。 In step S2, the imaging element 122 captures an image 101a that is an image focused on the near point (hereinafter referred to as a "near point image"). The imaging device 122 captures an image 101b that is an image in which the far point is in focus (hereinafter referred to as a "far point image").

また、画像キャリブレーション装置100は、駆動部114と、格納部109と、を有する。 Further, the image calibration device 100 has a drive section 114 and a storage section 109 .

被写界深度を拡大する内視鏡は、フォーカスレンズ(図3の第2群G2)を駆動する事で、通常フォーカス(遠点物体観察)モードと近接フォーカス(近点物体観察)モードとを切替える事ができる。本実施形態では通常フォーカスモード側で、キャリブレーションを行う方が望ましい。近接フォーカスモード側でキャリブレーションを行う場合、第1のチャートと光学装置200との観察距離設定を、通常フォーカスモードに比べて相対的に高精度とする必要があり、アクチュエータや制御ソフトウェアが高コストになり易いからである。 An endoscope that expands the depth of field can switch between a normal focus (far point object observation) mode and a close focus (near point object observation) mode by driving the focus lens (the second group G2 in FIG. 3). You can switch. In this embodiment, it is desirable to perform calibration on the normal focus mode side. When performing calibration in the close focus mode side, it is necessary to set the observation distance between the first chart and the optical device 200 with relatively high accuracy compared to the normal focus mode, and the actuator and control software are expensive. This is because it is easy to become

駆動部114は、ステージ104を、光学装置200に対して、第1のチャート101の観察距離を任意のステップで変更する(ステップS5)。駆動部114は、例えば、モータ、アクチュエータである。 The drive unit 114 changes the observation distance of the first chart 101 by moving the stage 104 with respect to the optical device 200 in arbitrary steps (step S5). The drive unit 114 is, for example, a motor or an actuator.

なお、光学装置200に対して、第1のチャート101の観察距離を相対的に変化させれば良い。このため、ステージ104の代わりにステージ105を駆動することで、ホルダ107に保持された光学装置200の位置を変化させても良い。 Note that the observation distance of the first chart 101 may be changed relative to the optical device 200 . Therefore, the position of the optical device 200 held by the holder 107 may be changed by driving the stage 105 instead of the stage 104 .

格納部109は、観察距離毎に第1のチャート101の静止画像を格納する。第1の算出部110は、格納部109に格納された第1のチャート101の静止画像から算出した第1の2つの画像の各々の空間周波数特性値を算出する。第1の算出部110は、空間周波数特性値が2つの画像101a、101bで同一となる観察距離Lを算出する(ステップS3、S4)。 The storage unit 109 stores still images of the first chart 101 for each observation distance. The first calculator 110 calculates spatial frequency characteristic values of each of the first two images calculated from the still image of the first chart 101 stored in the storage unit 109 . The first calculator 110 calculates the observation distance L at which the spatial frequency characteristic values of the two images 101a and 101b are the same (steps S3 and S4).

図8は、第1のチャート101の2つの画像101a(近点画像、三角印でプロット)の空間周波数特性値と、画像101b(遠点画像、丸印でプロット)の空間周波数特性値を示す。第1の算出部110は、空間周波数特性値が2つの画像101a、101bで同一となる観察距離Lを算出する。横軸はデフォーカス量(単位mm)、縦軸は空間周波数特性値(単位%)である。空間周波数特性値は、SFR(Spatial Frequency Reponse)によって求められる。 FIG. 8 shows the spatial frequency characteristic values of two images 101a (near point images, plotted with triangles) and the spatial frequency characteristic values of an image 101b (far point image, plotted with circles) of the first chart 101. . The first calculator 110 calculates the observation distance L at which the two images 101a and 101b have the same spatial frequency characteristic value. The horizontal axis is the defocus amount (unit: mm), and the vertical axis is the spatial frequency characteristic value (unit: %). The spatial frequency characteristic value is obtained by SFR (Spatial Frequency Response).

第1の算出部110が算出した観察距離Lで、ステージ104のホルダ106に、第2のチャート102を配置する(ステップS6)。尚、第1のチャート101と第2のチャート102がチャート基板の同一平面上に配置されていれば、ホルダ106に改めて第2のチャート102を配置する必要はない。格納部109は、第2のチャートの静止画像102a、102bを格納する(ステップS7)。パラメータ算出部113は、第2のチャートの静止画像102a、102bと、第2の算出部111が算出した位置関係の差異とに基づいて第1の補正パラメータを算出する(ステップS8、S9)。 The second chart 102 is placed on the holder 106 of the stage 104 at the observation distance L calculated by the first calculator 110 (step S6). If the first chart 101 and the second chart 102 are arranged on the same plane of the chart substrate, it is not necessary to place the second chart 102 on the holder 106 again. The storage unit 109 stores the still images 102a and 102b of the second chart (step S7). The parameter calculator 113 calculates a first correction parameter based on the still images 102a and 102b of the second chart and the difference in the positional relationship calculated by the second calculator 111 (steps S8 and S9).

光学装置200において、画像の空間周波数特性値に応じて画像合成を行う場合、2つの画像の位置合わせ補正を高精度で行う必要がある。ここで、2つの画像で一方の空間周波数特性値が低い(即ち、ピントが合っていない)と、位置合わせの補正精度が低下する。この結果、合成画像の解像力が劣化することや、アーチファクト(ノイズ)が生じてしまうので望ましくない。 In the optical device 200, when image synthesis is performed according to the spatial frequency characteristic values of the images, it is necessary to perform alignment correction of the two images with high precision. Here, if one of the two images has a low spatial frequency characteristic value (that is, the image is out of focus), the alignment correction accuracy decreases. As a result, the resolution of the synthesized image is degraded and artifacts (noise) are generated, which is undesirable.

これに対して、本実施形態では、第1のチャート101の2つの画像101a、101bの空間周波数特性値が同じになる観察距離Lを算出する。そして、算出した観察距離Lに位置合わせ用の第2のチャート102を配置する。これにより、位置合わせの補正パラメータ(第1の補正パラメータ)を得ることができるという効果を奏する。 In contrast, in the present embodiment, the observation distance L at which the spatial frequency characteristic values of the two images 101a and 101b of the first chart 101 are the same is calculated. Then, the second chart 102 for alignment is arranged at the calculated observation distance L. FIG. Accordingly, there is an effect that a correction parameter (first correction parameter) for alignment can be obtained.

図9は、画像キャリブレーション装置100に第2のチャートを配置した構成を示す。図10は、第2のチャート102を示す図である。図11は、光学装置200が撮像した第2のチャートの2つの画像102a、102bを示す図である。 FIG. 9 shows a configuration in which a second chart is arranged in the image calibration device 100. As shown in FIG. FIG. 10 is a diagram showing the second chart 102. As shown in FIG. FIG. 11 shows two images 102a and 102b of the second chart captured by the optical device 200. FIG.

第2のチャート102は、少なくとも2以上の異なるの階調を有する領域をランダムに配置したグレースケールチェッカパターンである。 A second chart 102 is a grayscale checker pattern in which at least two or more different gradation areas are randomly arranged.

通常の白黒パターンチャートは、2階調のみを使ったエッジマッチングである。これに対して、本実施形態では、多段階の階調をランダム配置したパターンを用いる。具体的には、第2のチャート102の2つの画像102a、102b間の複数の階調パターンの輝度差の誤差関数を演算する。そして、誤差関数の演算値を最小化して、2つの画像の位置合わせをする。これにより、高精度の位置合わせが可能となる。 A normal black and white pattern chart is edge matching using only two gradations. On the other hand, in the present embodiment, a pattern in which multilevel gradations are randomly arranged is used. Specifically, an error function of luminance differences of a plurality of gradation patterns between the two images 102a and 102b of the second chart 102 is calculated. Then, the two images are aligned by minimizing the calculated value of the error function. This enables highly accurate alignment.

また、本実施形態の望ましい態様では、パラメータ算出部113は、第1の補正パラメータに関して、第2の2つの画像102a、102bのうちの一方の画像を基準として算出する。 In a preferred aspect of the present embodiment, the parameter calculator 113 calculates the first correction parameter using one of the second two images 102a and 102b as a reference.

本実施形態におけるキャリブレーションの目的は、相対的に2つの画像間の差異を無くすことで合成画像のアーチファクトや重像を回避することである。このため、2つの画像間の差異の絶対値を求めることは大きな意味を有していない。2つの画像間の差異の絶対値(座標の正解値)を導き出すことは、その計測手段や製造誤差を考慮すると非常に困難であって、仮に基準パラメータを設定出来たとしても、位置合わせアルゴリズムが非常に複雑で、規模が大きくなるため好ましくない。従って、本実施形態では、2つの画像うち1つを基準画像とすることが望ましい。 The purpose of the calibration in this embodiment is to avoid artifacts and superimposed images in the synthesized image by relatively eliminating the difference between the two images. Therefore, finding the absolute value of the difference between two images is not very meaningful. Deriving the absolute value of the difference (correct coordinate value) between the two images is very difficult considering the measurement method and manufacturing error. It is not preferable because it is very complicated and the scale becomes large. Therefore, in this embodiment, it is desirable to use one of the two images as the reference image.

また、本実施形態の望ましい態様では、第3のチャート103は積分球である。積分球へ導光される照明光の分光特性は、光学装置200を使用するときの分光特性と同じである。 Also, in a preferred aspect of this embodiment, the third chart 103 is an integrating sphere. The spectral characteristics of the illumination light guided to the integrating sphere are the same as the spectral characteristics when the optical device 200 is used.

図12は、本実施形態に係る画像キャリブレーション装置100に第3のチャート103(積分球)の別の斜視構成図である。図13は、光学装置200が撮像した第3のチャート103の2つの画像103a、103bを示す図である。 FIG. 12 is another perspective view of the third chart 103 (integrating sphere) in the image calibration device 100 according to this embodiment. FIG. 13 shows two images 103a and 103b of the third chart 103 captured by the optical device 200. FIG.

2つの画像の相対的な明るさ差異を補正する場合、内視鏡システム1の製品に用いる光源特性(分光特性)と同等の特性を有する照明光で補正する事が望ましい。例えば、市販のLED照明装置を使うと、内視鏡光源とは全く異なる色調や明るさをしているため、最適な第2の補正パラメータから逸脱してしまう。仮に、画像処理部で更なる色調や明るさの補正を行ったとしても、回路規模増大や画像のノイズ増加が生じてしまい好ましくない。 When correcting the relative brightness difference between the two images, it is desirable to correct using illumination light that has the same characteristics as the light source characteristics (spectral characteristics) used in the endoscope system 1 product. For example, if a commercially available LED illumination device is used, the color tone and brightness are completely different from those of the endoscope light source, so the second correction parameters are deviated from the optimum. Even if the image processing unit corrects the color tone and brightness further, it is not preferable because the circuit size increases and the noise in the image increases.

第3のチャート103である積分球の内面は完全拡散面に相当する。このため、積分球から放出される光は、偏光依存が略存在しない。光路分割部120に偏光ビームスプリッターを用いた光学装置200において、色調、明るさの補正を行う場合、偏光依存がある被写体を基準(衝)にすると、均等な像分割ができない。このため、2つの画像において正しい補正が難しい。従って、本実施形態では、偏光依存が極めて少ない積分球を被写体とする(ステップS10)。 The inner surface of the integrating sphere, which is the third chart 103, corresponds to the perfect diffusion surface. Therefore, the light emitted from the integrating sphere has almost no polarization dependence. In the optical device 200 using a polarizing beam splitter in the optical path splitter 120, when correcting color tone and brightness, if a subject dependent on polarization is used as a reference (opposition), uniform image splitting cannot be performed. Therefore, it is difficult to correct the two images correctly. Therefore, in the present embodiment, the subject is an integrating sphere with extremely little polarization dependence (step S10).

上述したように、第3の算出部112は、光源によって照明された第3のチャート103を光学装置200により撮像して得られる第3のチャート103の2つの画像103a、103bの相対的な明るさ比率の差異をRGB信号ごとに算出する(ステップS11)。 As described above, the third calculator 112 calculates the relative brightness of the two images 103a and 103b of the third chart 103 obtained by imaging the third chart 103 illuminated by the light source with the optical device 200. A difference in ratio is calculated for each RGB signal (step S11).

パラメータ算出部113は、2つの画像103a、103bに関する明るさ比率の差異を補正する第2の補正パラメータを算出する(ステップS12)。 The parameter calculator 113 calculates a second correction parameter for correcting the difference in brightness ratio between the two images 103a and 103b (step S12).

図14(a)、(b)、(c)は、光源115から出射される分光分布特性のイメージ図である。横軸は、波長帯域(nm)、縦軸は、任意の強度Isを示す。上述したように、第3のチャート103(積分球)に関して、光源115から導光路116bで導光された照明光は、積分球内を照射する。光学装置200は、積分球内部を撮像する。従って、図14(a)、(b)、(c)で示すような分光分布特性を有する光を、導光路116bにより積分球へ導くように構成する。 14A, 14B, and 14C are image diagrams of spectral distribution characteristics emitted from the light source 115. FIG. The horizontal axis indicates a wavelength band (nm), and the vertical axis indicates an arbitrary intensity Is. As described above, with respect to the third chart 103 (integrating sphere), the illumination light guided from the light source 115 through the light guide path 116b illuminates the interior of the integrating sphere. The optical device 200 images the inside of the integrating sphere. Therefore, the light having spectral distribution characteristics as shown in FIGS. 14(a), (b), and (c) is guided to the integrating sphere by the light guide path 116b.

光学装置200は、異なる観察モードを切り替えられる内視鏡システム1(図15
)である。内視鏡システム1の観察モード毎に光源からの照明光が切り替わる。パラメータ算出部113は、観察モード毎に、第2の補正パラメータを算出する。
The optical device 200 is an endoscope system 1 (FIG. 15) capable of switching between different observation modes.
). The illumination light from the light source is switched for each observation mode of the endoscope system 1 . The parameter calculator 113 calculates a second correction parameter for each observation mode.

内視鏡の観察モードには、白色光を用いる観察モード以外に、狭帯域の波長を用いた観察モードがある。明るさや色調のキャリブレーションで、白色光のみを対象とした補正パラメータではマッチングが適切でない場合がある。このため、本実施形態では、観察モード毎に用いる照明光で各々補正パラメータを算出、保有することができる。 Observation modes of endoscopes include observation modes using narrow-band wavelengths in addition to observation modes using white light. In calibration of brightness and color tone, matching may not be appropriate with correction parameters that target only white light. Therefore, in this embodiment, it is possible to calculate and store correction parameters for each illumination light used in each observation mode.

明るさと色調のキャリブレーションに用いられる照明光は、内視鏡の各観察モードに対応した照明光であって、少なくとも通常観察モードに用いる400~700nmの広帯域光と、狭帯域観察モードに用いられる狭帯域光の、複数の照明光を用いて各々の観察モード毎に、明るさと色調のキャリブレーションが実施できる。 The illumination light used for the calibration of brightness and color tone is illumination light corresponding to each observation mode of the endoscope, at least broadband light of 400 to 700 nm used in normal observation mode and narrowband observation mode. Brightness and color tone calibration can be performed for each viewing mode using a plurality of narrow-band illumination lights.

一般的に、偏光ビームスプリッター、位相差板、偏光解消板という偏光素子は、波長依存性を有する。このため、観察モード毎に補正パラメータを設定することで、より良好な画像品質を得ることができる。尚、光学素子や組立時の製造誤差により、被写界深度を拡大する内視鏡で個体差が存在する。このため、本実施形態のように個体(光学装置200)毎に固有の補正パラメータが必要となる。 In general, polarizing elements such as polarizing beam splitters, retardation plates, and depolarizing plates have wavelength dependence. Therefore, better image quality can be obtained by setting a correction parameter for each observation mode. There are individual differences in endoscopes that expand the depth of field due to manufacturing errors in optical elements and assembly. Therefore, a unique correction parameter is required for each individual (optical device 200) as in the present embodiment.

キャリブレーションにて得られた明るさ、色調の補正パラメータは、内視鏡の各観察モードに連動して切り替わり、画像を補正する。 The brightness and color tone correction parameters obtained by calibration are switched in conjunction with each observation mode of the endoscope to correct the image.

明るさ、色調合わせのキャリブレーションは、偏光依存や波長依存が少ない積分球を被写体とし、光源は製品相当の分光特性を有する光源である。光を導光するライトガイドも併せて製品相当の分光透過特性を有するものを用いることが望ましい。 For calibration of brightness and color tone matching, an integrating sphere, which is less dependent on polarization and wavelength, is used as the subject, and the light source is a light source with spectral characteristics equivalent to the product. It is also desirable to use a light guide that guides light and that has a spectral transmission characteristic equivalent to that of the product.

上述したように、本実施形態では、高精度の位置合わせと、波長や偏光に依存しない明るさ色調のキャリブレーションが可能であって、且つ、各種観察モードで最適な合成画像が得られるという効果がある。 As described above, in the present embodiment, highly accurate alignment and calibration of brightness and color tone independent of wavelength and polarization are possible, and an optimal composite image can be obtained in various observation modes. There is

図15は、上述の補正パラメータを格納している内視鏡システムの構成を示す機能ブロック図である。本実施形態の内視鏡システム1は、被検体内に挿入される内視鏡2と、この内視鏡2に照明光を供給する光源装置3と、プロセッサ装置4と、画像表示部5と、を有する。 FIG. 15 is a functional block diagram showing the configuration of an endoscope system that stores the correction parameters described above. An endoscope system 1 of this embodiment includes an endoscope 2 inserted into a subject, a light source device 3 that supplies illumination light to the endoscope 2, a processor device 4, and an image display unit 5. , have

プロセッサ装置4は、画像処理を行う機能を有するが、それ以外の機能も有する。プロセッサ装置4は、アクチュエータ制御部25と、画像プロセッサ30と、制御部39と、を有する。画像表示装置5は、プロセッサ装置4により生成された画像信号を内視鏡画像として表示する。 The processor device 4 has a function of performing image processing, but also has other functions. The processor device 4 has an actuator controller 25 , an image processor 30 and a controller 39 . The image display device 5 displays the image signal generated by the processor device 4 as an endoscopic image.

内視鏡2は、被検体内に挿入される細長の挿入部6と、この挿入部6の後端に設けられた操作部7とを有する。操作部7からは、ライトガイドケーブル8が外側に向かって延びている。ライトガイドケーブル8の一端は、接続部8aを介して、光源装置3に着脱自在に接続されている。ライトガイドケーブル8は、内側にライトガイド9を有する。ライトガイド9の一部は挿入部6内に配置されている。 The endoscope 2 has an elongated insertion section 6 to be inserted into the subject, and an operation section 7 provided at the rear end of the insertion section 6 . A light guide cable 8 extends outward from the operating portion 7 . One end of the light guide cable 8 is detachably connected to the light source device 3 via a connecting portion 8a. The light guide cable 8 has a light guide 9 inside. A portion of the light guide 9 is arranged inside the insertion portion 6 .

光源装置3は、光源として例えばキセノンランプ等のランプ11を内蔵する。なお、光源として、キセノンランプ等のランプ11に限定されるものでなく、発光ダイオード(LEDと略記)を用いても良い。ランプ11により発生した照明光、例えば、白色光は、絞り12により通過光量が調整される。そして、照明光は、コンデンサレンズ13により集光されて、ライトガイド9の入射端面に入射する。絞り12の開口径は、絞り駆動部14によって変えることができる。 The light source device 3 incorporates a lamp 11 such as a xenon lamp as a light source. The light source is not limited to the lamp 11 such as a xenon lamp, and a light emitting diode (abbreviated as LED) may be used. Illumination light generated by the lamp 11 , for example, white light, passes through the diaphragm 12 and is adjusted in amount. The illumination light is condensed by the condenser lens 13 and enters the incident end surface of the light guide 9 . The aperture diameter of the diaphragm 12 can be changed by the diaphragm driver 14 .

ライトガイド9は、光源装置3で生成された照明光を、挿入部6の先端部6aに伝送する。伝送された照明光は、ライトガイド9の先端面から出射する。先端部6aには、先端面に対向して照明レンズ15が配置されている。照明レンズ15は照明光を照明窓15aから出射する。これにより、被検体内部の観察対象部位が照明される。 The light guide 9 transmits illumination light generated by the light source device 3 to the distal end portion 6 a of the insertion portion 6 . The transmitted illumination light is emitted from the tip surface of the light guide 9 . An illumination lens 15 is arranged at the distal end portion 6a so as to face the distal end surface. The illumination lens 15 emits illumination light through an illumination window 15a. As a result, the site to be observed inside the subject is illuminated.

先端部6aには、観察窓20が、照明窓15aの隣に設けられている。観察対象部位からの光は、観察窓20を通過して、先端部6a内に入射する。観察窓20の後方には、対物光学系OBLが配置されている。対物光学系OBLは、レンズ群16と光路分割部120とで構成されている。 An observation window 20 is provided in the distal end portion 6a next to the illumination window 15a. Light from the site to be observed passes through the observation window 20 and enters the distal end portion 6a. An objective optical system OBL is arranged behind the observation window 20 . Objective optical system OBL is composed of lens group 16 and optical path splitter 120 .

レンズ群16は、レンズ16aやレンズ21を有する。レンズ21は光軸に沿って移動可能になっている。これにより、合焦が行われる。レンズ21を移動させるために、アクチュエータ22が配置されている。 The lens group 16 has a lens 16 a and a lens 21 . The lens 21 is movable along the optical axis. Focusing is thereby performed. An actuator 22 is arranged to move the lens 21 .

光路分割部120には、1つの撮像素子122(不図示)が配置されている。撮像素子122の受光面に、2つの光学像が同時に形成される。2つの光学像は、撮像素子122によって撮像される。 One imaging element 122 (not shown) is arranged in the optical path splitting section 120 . Two optical images are simultaneously formed on the light receiving surface of the imaging element 122 . The two optical images are captured by the imaging device 122 .

操作部7は、ケーブル24を介して、プロセッサ装置4と接続されている。プロセッサ装置4との接続箇所には、信号コネクタ24aが設けられている。様々な情報の伝達が、ケーブル24を介して、内視鏡2とプロセッサ装置4との間で行われる。信号コネクタ24aは、補正パラメータ格納部37を有する。 The operation unit 7 is connected to the processor device 4 via a cable 24 . A signal connector 24 a is provided at a connection point with the processor device 4 . Various information is communicated between endoscope 2 and processor unit 4 via cable 24 . The signal connector 24 a has a correction parameter storage section 37 .

補正パラメータ格納部37には、画像の補正に使用する補正パラメータ(の情報)が格納されている。補正パラメータは、個々の内視鏡で異なる。固有の内視鏡識別情報を有する内視鏡が、プロセッサ装置4に接続されたとする。この場合、内視鏡識別情報に基づいて、接続された内視鏡に固有の補正パラメータが、補正パラメータ格納部37から読み出される。読み出された補正パラメータに基づいて、画像補正処理部32において、画像の補正が行われる。補正の有無は、制御部39によって行われる。 The correction parameter storage unit 37 stores (information on) correction parameters used for image correction. Correction parameters are different for each endoscope. Assume that an endoscope having unique endoscope identification information is connected to processor unit 4 . In this case, a correction parameter unique to the connected endoscope is read from the correction parameter storage unit 37 based on the endoscope identification information. The image is corrected in the image correction processing unit 32 based on the read correction parameters. The presence or absence of correction is performed by the control unit 39 .

アクチュエータ22の制御は、アクチュエータ制御部25によって行われる。そのために、アクチュエータ22とアクチュエータ制御部25とは、信号線23を介して接続されている。また、撮像素子は、信号線27aを介して、画像プロセッサ30と接続されている。撮像素子からの信号は、画像プロセッサ30に入力される。また、操作部7に設けられたスイッチ26の情報も、信号線27aを介して、プロセッサ装置4に送信される。 Control of the actuator 22 is performed by an actuator control section 25 . Therefore, the actuator 22 and the actuator control section 25 are connected via a signal line 23 . The imaging device is also connected to the image processor 30 via a signal line 27a. A signal from the imaging device is input to the image processor 30 . Information on the switch 26 provided on the operation unit 7 is also transmitted to the processor device 4 via the signal line 27a.

第1の光路における光路長が、第2の光路における光路長と僅かに異なる場合、撮像面の前後に、ピントの合った光学像が2つ形成される。撮像面に対する光学像のズレ量は僅かである。そのため、撮像面には、一部の領域だけにピントが合っている状態の光学像が、2つ形成される。 If the optical path length in the first optical path is slightly different from the optical path length in the second optical path, two in-focus optical images are formed in front of and behind the imaging plane. The amount of deviation of the optical image with respect to the imaging plane is slight. As a result, two optical images are formed on the image pickup plane in a state in which only a part of the area is in focus.

2つの光学像は撮像素子で撮像される。撮像で得られた画像信号は、信号線27aを介して画像プロセッサ30に入力される。この画像プロセッサ30は、画像読出部31と、画像補正処理部32と、画像合成処理部33と、後段画像処理部34と、画像出力部35と、調光部36と、を有する。 The two optical images are picked up by an imaging device. An image signal obtained by imaging is input to the image processor 30 via the signal line 27a. The image processor 30 has an image reading section 31 , an image correction processing section 32 , an image synthesis processing section 33 , a post-stage image processing section 34 , an image output section 35 and a light control section 36 .

画像読出部31では、入力された画像信号から、複数の画像の画像信号を読み出す。ここでは、光学像の数と画像の数は、共に2つとする。 The image reading unit 31 reads image signals of a plurality of images from the input image signals. Here, both the number of optical images and the number of images are two.

2つの光学像を形成する光学系では、幾何的な差異が生じる場合がある。幾何的な差異としては、2つの光学像における相対的ズレ(差異)、例えば、倍率のズレ(差異)、位置ズレ(差異)及び回転方向のズレ(差異)、がある。これらの差異を、対物光学系OBLの製造時などにおいて、完全に無くす事は難しい。しかし、それらのズレ(差異)量が大きくなると、例えば、合成画像が2重に見えてしまう。このため、画像補正処理部32にて上述した幾何的な差異を補正することが好ましい。 A geometric difference may occur in an optical system that forms two optical images. Geometrical differences include relative deviations (differences) between two optical images, such as magnification deviations (differences), positional deviations (differences), and rotational deviations (differences). It is difficult to completely eliminate these differences when manufacturing the objective optical system OBL. However, if the amount of deviation (difference) between them becomes large, for example, the composite image appears double. Therefore, it is preferable that the image correction processing unit 32 corrects the geometrical difference described above.

画像補正処理部32は、読み出された2つの画像に対する画像補正を行う。画像補正処理部32では、例えば、2つの画像における相対的な倍率の差異、位置の差異、回転の差異のうち、少なくとも1つの差異を合致させる処理が行われる。 The image correction processing unit 32 performs image correction on the two read images. In the image correction processing unit 32, for example, a process of matching at least one of the relative magnification difference, positional difference, and rotational difference between the two images is performed.

更に、画像補正処理部32では、色調補正を行う。そのために、画像補正処理部32は、色調補正部(不図示)を有する。色調補正では、2つの画像の相対的な輝度と彩度を、少なくとも1つの任意の特定波長帯域において略一致させる処理を行う。色調補正部を設けずに、画像補正処理部32で色調補正を行っても良い。 Furthermore, the image correction processing unit 32 performs color tone correction. Therefore, the image correction processing section 32 has a color tone correction section (not shown). Color tone correction is a process of substantially matching the relative brightness and saturation of two images in at least one arbitrary specific wavelength band. Color tone correction may be performed by the image correction processing section 32 without providing the color tone correction section.

画像補正処理部32では、2つの画像のうち、一方の画像における輝度を、他方の画像における輝度と略一致するように変更する。また、画像補正処理部32では、一方の画像における彩度を、他方の画像における彩度と略一致するように変更する。 The image correction processing unit 32 changes the brightness of one of the two images so that it substantially matches the brightness of the other image. Further, the image correction processing unit 32 changes the saturation of one image so as to substantially match the saturation of the other image.

上述のように、被写界深度の大きな画像を取得する方法では、複数の画像からピントが合っている領域だけを抽出し、抽出した領域の合成が行われる。本実施形態の内視鏡システムでは、複数の画像における明るさの差や色調の差を少なくすることができる。よって、合成した画像において明るさのムラや色調の違いを少なくすることができる。 As described above, in the method of acquiring an image with a large depth of field, only in-focus areas are extracted from a plurality of images, and the extracted areas are combined. In the endoscope system of this embodiment, it is possible to reduce differences in brightness and differences in color tone between a plurality of images. Therefore, unevenness in brightness and difference in color tone can be reduced in the combined image.

また、画像の色再現性を向上させる方法では、2つの画像を用いた画像合成が行われる。2つの光学像において明るさの差や色調の差が生じていると、撮像で得られた2つの画像にも、明るさの差や色調の差が生じる。本実施形態の内視鏡システムでは、複数の画像において明るさの差や色調の差が生じていても、明るさの差や色調の差を少なくすることができる。よって、合成した画像の色再現性をより向上させることができる。 Further, in a method for improving the color reproducibility of an image, image synthesis is performed using two images. If the two optical images have a difference in brightness or a difference in color tone, the two images obtained by imaging also have a difference in brightness or a difference in color tone. In the endoscope system of the present embodiment, even if there are differences in brightness and color tones between a plurality of images, the differences in brightness and color tones can be reduced. Therefore, it is possible to further improve the color reproducibility of the combined image.

画像合成処理部33では、まず、2つの画像を用いて空間周波数特性値の比較が行われる。この比較は、2つの画像における空間的に同一の画素領域それぞれについて行われる。続いて、相対的に空間周波数特性値が高い方の画素領域の選択が行われる。そして、選択した画素領域を用いて1つの画像を生成する。このように、2つの画像から1つの合成画像を生成する。なお、2つの画像の空間周波数特性値差が小さい場合は、各画像に所定の重み付けして加算する合成画像処理を行った後、合成画像を生成すれば良い。 The image synthesis processing unit 33 first compares the spatial frequency characteristic values using the two images. This comparison is made for each spatially identical pixel region in the two images. Subsequently, a pixel region having a relatively higher spatial frequency characteristic value is selected. Then, one image is generated using the selected pixel area. Thus, one composite image is generated from two images. If the difference between the spatial frequency characteristic values of the two images is small, the composite image may be generated after performing composite image processing in which each image is added with a predetermined weight.

後段画像処理部34では、合成画像に対して、例えば、輪郭強調、ガンマ補正等の画像処理が行われる。画像出力部35は、画像処理された画像を画像表示装置5に出力する。 The post-stage image processing unit 34 performs image processing such as edge enhancement and gamma correction on the composite image. The image output unit 35 outputs the processed image to the image display device 5 .

調光部36では、画像読出部31により読み出された画像から、基準の明るさに調光するための調光信号が生成される。調光信号は、光源装置3の絞り駆動部14に出力される。絞り駆動部14は、調光信号に従って、基準の明るさを維持するように絞り12の開口量を調整する。 The dimming unit 36 generates a dimming signal for dimming to a reference brightness from the image read by the image reading unit 31 . The dimming signal is output to the diaphragm driver 14 of the light source device 3 . The diaphragm driver 14 adjusts the opening amount of the diaphragm 12 so as to maintain the reference brightness according to the dimming signal.

なお、上述の画像キャリブレーション装置は、複数の構成を同時に満足してもよい。このようにすることが、良好な内視鏡用光学系を得る上で好ましい。また、好ましい構成の組み合わせは任意である。 Note that the image calibration device described above may simultaneously satisfy a plurality of configurations. This arrangement is preferable for obtaining a good endoscope optical system. Moreover, the combination of preferable configurations is arbitrary.

また、本実施形態は、被写界深度を拡大する内視鏡システムのキャリブレーション装置に限られない。例えば、左目画像と右目画像とから立体視を行う光学装置の画像キャリブレーション装置にも有用である。 Moreover, the present embodiment is not limited to the calibration device for an endoscope system that expands the depth of field. For example, it is also useful for an image calibration device for an optical device that performs stereoscopic viewing from a left-eye image and a right-eye image.

以上、本発明の種々の実施形態について説明したが、本発明は、これらの実施形態のみに限られるものではなく、その趣旨を逸脱しない範囲で、これら実施形態の構成を適宜組合せて構成した実施形態も本発明の範疇となるものである。 Although various embodiments of the present invention have been described above, the present invention is not limited to these embodiments, and can be implemented by appropriately combining the configurations of these embodiments without departing from the spirit of the present invention. Forms are also within the scope of the present invention.

(付記)
なお、これらの実施例から以下の構成の発明が導かれる。
(付記項1)
物体側から順に、対物光学系と、前記対物光学系で得られた被写体像を光路差の異なる2つの光学像に分割する光路分割部と、前記2つの光学像から2つの画像を取得する撮像素子と、を有する光学装置のための画像キャリブレーション方法であって、
第1のチャートと、第2のチャートと、第3のチャートとを供給する工程と、
前記第1のチャートと前記第2のチャートと第3のチャートへ照明光を照射する工程と、
前記第1のチャート、前記第2のチャート及び前記第3のチャートを載置する工程と、
前記第1のチャートを撮像して得られる第1の2つの画像それぞれの空間周波数特性値を算出する第1の算出工程と、
前記第1の2つの画像の前記空間周波数特性値が、同等となる位置に前記第2のチャートを配置した状態で、前記第2のチャートを前記光学装置により、撮像して得られる第2の2つの画像の相対的な位置関係の差異を算出する第2の算出工程と、
前記光源によって照明された前記第3のチャートを前記光学装置により、撮像して得られる第3の2つの画像の相対的な明るさ比率の差異をRGB信号ごとに算出する第3の算出工程と、
前記位置関係の差異を補正する第1の補正パラメータと、前記明るさ比率の差異を補正する第2の補正パラメータを算出するパラメータ算出工程と、
を有することを特徴とする画像キャリブレーション方法。
(付記項2)
付記項1に記載の前記位置関係の差異を補正する第1の補正パラメータと、前記明るさ比率の差異を補正する第2の補正パラメータを格納する補正パラメータ格納部を有する内視鏡システム。
(Appendix)
The invention having the following configuration is derived from these examples.
(Appendix 1)
In order from the object side, an objective optical system, an optical path splitting unit that splits the subject image obtained by the objective optical system into two optical images with different optical path differences, and an imaging that acquires two images from the two optical images. An image calibration method for an optical device comprising:
providing a first chart, a second chart and a third chart;
irradiating the first chart, the second chart, and the third chart with illumination light;
placing the first chart, the second chart and the third chart;
a first calculation step of calculating spatial frequency characteristic values of each of the first two images obtained by imaging the first chart;
A second image obtained by imaging the second chart with the optical device in a state where the second chart is arranged at a position where the spatial frequency characteristic values of the two first images are equivalent. a second calculation step of calculating a difference in relative positional relationship between the two images;
a third calculation step of calculating, for each RGB signal, a difference in relative brightness ratio between two third images obtained by imaging the third chart illuminated by the light source with the optical device; ,
a parameter calculation step of calculating a first correction parameter for correcting the difference in the positional relationship and a second correction parameter for correcting the difference in the brightness ratio;
An image calibration method characterized by comprising:
(Appendix 2)
An endoscope system having a correction parameter storage unit storing a first correction parameter for correcting the difference in the positional relationship according to additional item 1 and a second correction parameter for correcting the difference in the brightness ratio.

以上のように、本発明は、内視鏡システムにおいて2つの画像を合成する際、予め最適な補正パラメータを取得することで、合成した画像の画質の劣化やアーチファクト(ノイズ)を低減する画像キャリブレーション装置に有用である。 As described above, according to the present invention, when combining two images in an endoscope system, image calibration is performed to reduce deterioration in image quality and artifacts (noise) of the combined image by obtaining optimum correction parameters in advance. It is useful for application devices.

L1~L10 レンズ
AX 光軸
I 像面
OBL 対物光学系
1 内視鏡システム
4 プロセッサ装置
5 画像表示装置
100 画像キャリブレーション装置
101 第1のチャート
102 第2のチャート
103 第3のチャート
104、105 ステージ
106、107 ホルダ
108 キャリブレーションプロセッサ
109 格納部
110 第1の算出部
111 第2の算出部
112 第3の算出部
113 パラメータ算出部
114 駆動部
115 光源
116,116a、116b 導光路
120 光路分割部
122 撮像素子
200 光学装置
L1 to L10 lens AX optical axis I image plane OBL objective optical system 1 endoscope system 4 processor device 5 image display device 100 image calibration device 101 first chart 102 second chart 103 third chart 104, 105 stage 106, 107 holder 108 calibration processor 109 storage unit 110 first calculator 111 second calculator 112 third calculator 113 parameter calculator 114 driver 115 light source 116, 116a, 116b light guide 120 optical path splitter 122 Imaging device 200 optical device

Claims (7)

物体側から順に、対物光学系と、前記対物光学系で得られた被写体像を光路差の異なる2つの光学像に分割する光路分割部と、前記2つの光学像から2つの画像を取得する撮像素子と、を有する光学装置のための画像キャリブレーション装置であって、
第1のチャートと、
第2のチャートと、
第3のチャートと、
前記第1のチャートと前記第2のチャートと前記第3のチャートへ照明光を照射する光源と、
前記第1のチャート、前記第2のチャート及び前記第3のチャートを載置するステージと、
キャリブレーションプロセッサと、を有し
前記キャリブレーションプロセッサが、
前記第1のチャートを撮像して得られる第1の2つの画像それぞれの空間周波数特性値を算出する第1の算出部と、
前記第1の2つの画像の前記空間周波数特性値が、同等となる第1のチャートの位置に、前記第2のチャートを配置した状態で、前記第2のチャートを前記光学装置により、撮像して得られる第2の2つの画像の相対的な位置関係の差異を算出する第2の算出部と、
前記光源によって照明された前記第3のチャートを前記光学装置により、撮像して得られる第3の2つの画像の相対的な明るさ比率の差異をRGB信号ごとに算出する第3の算出部と、
前記位置関係の差異を補正する第1の補正パラメータと、前記明るさ比率の差異を補正する第2の補正パラメータを算出するパラメータ算出部と、
を有することを特徴とする画像キャリブレーション装置。
In order from the object side, an objective optical system, an optical path splitting unit that splits the subject image obtained by the objective optical system into two optical images with different optical path differences, and an imaging that acquires two images from the two optical images. An image calibration device for an optical device comprising:
a first chart;
a second chart;
a third chart;
a light source that irradiates the first chart, the second chart, and the third chart with illumination light;
a stage on which the first chart, the second chart and the third chart are placed;
a calibration processor, wherein the calibration processor
a first calculator that calculates spatial frequency characteristic values of each of the first two images obtained by imaging the first chart;
The second chart is imaged by the optical device while the second chart is arranged at a position of the first chart where the spatial frequency characteristic values of the first two images are equivalent. a second calculator that calculates the difference in the relative positional relationship between the second two images obtained by
a third calculator that calculates, for each RGB signal, a difference in relative brightness ratio between two third images obtained by imaging the third chart illuminated by the light source with the optical device; ,
a parameter calculation unit that calculates a first correction parameter for correcting the difference in the positional relationship and a second correction parameter for correcting the difference in the brightness ratio;
An image calibration device comprising:
前記キャリブレーションプロセッサは、さらに、前記ステージを、前記光学装置に対して、第1のチャートの観察距離を任意のステップで変更する駆動部と、
前記観察距離毎に第1のチャートの静止画像を格納された格納部と、を有し、
前記第1の算出部は、前記格納部に格納された前記第1のチャートの静止画像から算出した前記第1のチャートの2つの画像の各々の空間周波数特性値を算出し、かつ該空間周波数特性値が前記第1のチャートの2つの画像で同一となる観察距離を算出し、
前記ステージは、前記第1の算出部が算出した前記観察距離に前記第2のチャートを配置するホルダを有し、
前記格納部は、前記第2のチャートの静止画像を格納し、
前記パラメータ算出部は、前記第2のチャートの静止画像と、前記第2の算出部が算出した前記位置関係の差異とに基づいて前記第1の補正パラメータを算出することを特徴とする請求項1に記載の画像キャリブレーション装置。
The calibration processor further includes a drive unit that changes the viewing distance of the first chart in arbitrary steps by moving the stage with respect to the optical device;
a storage unit storing a still image of the first chart for each observation distance;
The first calculation unit calculates a spatial frequency characteristic value of each of the two images of the first chart calculated from the still image of the first chart stored in the storage unit, and calculates the spatial frequency characteristic value calculating an observation distance at which the characteristic value is the same for the two images of the first chart;
the stage has a holder for placing the second chart at the observation distance calculated by the first calculator;
The storage unit stores a still image of the second chart,
The parameter calculation unit calculates the first correction parameter based on the still image of the second chart and the difference in the positional relationship calculated by the second calculation unit. 2. The image calibration device according to 1.
前記第1のチャートは、空間周波数特性値を求めるチャートであって、前記第1のチャートは白黒エッジ稜線を含むチャートパターンを有し、
前記第1のチャートは、前記2つの画像の視野中心と前記白黒エッジ稜線とが交わる様に配置されることを特徴とする請求項2に記載の画像キャリブレーション装置。
The first chart is a chart for obtaining a spatial frequency characteristic value, the first chart has a chart pattern including black and white edge lines,
3. The image calibration apparatus according to claim 2, wherein the first chart is arranged so that the center of the field of view of the two images and the black-and-white edge ridge line intersect.
前記第2のチャートは、少なくとも2以上の異なるの階調を有する領域をランダムに配置したグレースケールチェッカパターンであることを特徴とする請求項1に記載の画像キャリブレーション装置。 2. The image calibration apparatus according to claim 1, wherein said second chart is a grayscale checker pattern in which at least two or more areas having different gradations are randomly arranged. 前記パラメータ算出部は、前記第1の補正パラメータに関して、前記第2のチャートの2つの画像のうちの一方の画像を基準として算出することを特徴とする請求項1に記載の画像キャリブレーション装置。 2. The image calibration apparatus according to claim 1, wherein the parameter calculator calculates the first correction parameter using one of the two images of the second chart as a reference. 前記第3のチャートは積分球であって、前記積分球へ導光される照明光の分光特性は、前記光学装置を使用するときの光源の分光特性と同じであることを特徴とする請求項1に記載の画像キャリブレーション装置。 3. The third chart is an integrating sphere, and the spectral characteristics of illumination light guided to the integrating sphere are the same as the spectral characteristics of a light source when using the optical device. 2. The image calibration device according to 1. 前記光学装置は、異なる観察モードを切り替えられる内視鏡システムであり、前記内視鏡システムの前記観察モード毎に前記光源からの照明光が切り替わり、
前記パラメータ算出部は、前記観察モード毎に、前記第2の補正パラメータを算出することを特徴とする請求項1の画像キャリブレーション装置。
The optical device is an endoscope system capable of switching between different observation modes, wherein illumination light from the light source is switched for each observation mode of the endoscope system,
2. The image calibration apparatus according to claim 1, wherein the parameter calculator calculates the second correction parameter for each observation mode.
JP2021032945A 2021-03-02 Image Calibration Device Active JP7582882B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021032945A JP7582882B2 (en) 2021-03-02 Image Calibration Device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021032945A JP7582882B2 (en) 2021-03-02 Image Calibration Device

Publications (2)

Publication Number Publication Date
JP2022133968A true JP2022133968A (en) 2022-09-14
JP7582882B2 JP7582882B2 (en) 2024-11-13

Family

ID=

Similar Documents

Publication Publication Date Title
EP2741702B1 (en) An image capture unit in a surgical instrument
US9675236B2 (en) Image capture unit in a surgical instrument
US10254533B2 (en) Increased resolution and dynamic range image capture unit in a surgical instrument and method
US9782056B2 (en) Image capture unit and method with an extended depth of field
US9254076B2 (en) Feature differentiation image capture unit and method in a surgical instrument
US8684914B2 (en) Image capture unit and an imaging pipeline with enhanced color performance in a surgical instrument and method
EP3254606B1 (en) Endoscope and imaging arrangement providing depth of field
US10205888B2 (en) Endoscope system
US11607114B2 (en) Endoscope, method for adjustment of endoscope, and image pickup apparatus
CN104812289A (en) Endoscope device
US8836776B2 (en) Endoscope apparatus
US11857158B2 (en) Optical system, endoscope apparatus and endoscope
US11954766B2 (en) Method for carrying out a shading correction and optical observation device system
JP6257874B1 (en) Objective optical system and endoscope apparatus including the same
JP7582882B2 (en) Image Calibration Device
JP2022133968A (en) Image calibration device
JP3191932B2 (en) Measurement endoscope device
WO2023047458A1 (en) Objective optical system, imaging unit, endoscope, and endoscope device
US20240065525A1 (en) Method, computer program, and data processing unit for creating at least one correction value for correcting fluorescence intensities in a fluorescence image, and optical observation system
JP2003035524A (en) Three-dimensional measuring device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240130

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240911

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240925

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20241006

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20241024

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20241031