JP2020124569A - Image processing apparatus, image processing method and program - Google Patents

Image processing apparatus, image processing method and program Download PDF

Info

Publication number
JP2020124569A
JP2020124569A JP2020079364A JP2020079364A JP2020124569A JP 2020124569 A JP2020124569 A JP 2020124569A JP 2020079364 A JP2020079364 A JP 2020079364A JP 2020079364 A JP2020079364 A JP 2020079364A JP 2020124569 A JP2020124569 A JP 2020124569A
Authority
JP
Japan
Prior art keywords
image
alignment
images
area
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020079364A
Other languages
Japanese (ja)
Inventor
恵子 米沢
Keiko Yonezawa
恵子 米沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2020079364A priority Critical patent/JP2020124569A/en
Publication of JP2020124569A publication Critical patent/JP2020124569A/en
Pending legal-status Critical Current

Links

Landscapes

  • Eye Examination Apparatus (AREA)
  • Image Analysis (AREA)

Abstract

To provide a mechanism which can efficiently perform comparison with time in the fundus oculi of an eye to be examined.SOLUTION: An image processing apparatus includes: an image acquisition part 110 which acquires the first image obtained by imaging a region in the prescribed size in the fundus oculi of an eye to be examined and the second image obtained by imaging a region narrower than the region in the prescribed region in association with each other for each set based on the imaging timing; a positioning part 141 which performs the first positioning being the positioning between the first image and the second image constituting the same set and the second positioning being the positioning between the first images included in the different sets to generate position information related to the positioning; and an overlapping part 142 which generates an overlapped image by overlapping the second image included in the first set and the second image included in the second set acquired after the first set with the first image included in the first set or the first image included in the second set on the basis of the position information generated by the positioning part 141.SELECTED DRAWING: Figure 1

Description

本発明は、被検眼の眼底を経時的に撮影した画像を処理する画像処理装置及び画像処理方法、並びに、当該画像処理方法をコンピュータに実行させるためのプログラムに関するものである。 The present invention relates to an image processing apparatus and an image processing method for processing an image of a fundus of an eye to be inspected over time, and a program for causing a computer to execute the image processing method.

人の五感の中でも重要な機能とされる視機能には、被検眼の眼底に位置する網膜の視細胞が重要な役割を果たしている。近年、収差補正技術を応用することで、眼底網膜を高精細に描出する技術が構築され、視機能に関する新たな知見の発見や診断価値の構築が期待されている。 The photoreceptor cells of the retina located at the fundus of the eye to be examined play an important role in the visual function, which is considered to be an important function among the human five senses. In recent years, by applying aberration correction technology, a technology for depicting the fundus retina in high definition has been constructed, and it is expected to discover new knowledge about visual function and build diagnostic value.

補償光学適用眼底走査型レーザー検眼鏡(Adaptive Optics Scanning Laser Ophthalmoscope:以下、「AO−SLO」と称する)装置は、大気のゆらぎを補償することで鮮明な星の画像を取得する望遠鏡の技術を、眼に応用した検眼鏡である。このAO−SLO装置の技術により、被検眼の網膜の視細胞1つ1つを解像することができるようになった。視細胞は、最も高密度である中心窩付近では約2μm間隔で存在するといわれている。現在も、この中心窩の視細胞まで描出することを目的として、解像度向上のための開発が続けられている。 An adaptive optics scanning laser ophthalmoscope (hereinafter, referred to as “AO-SLO”) device for adaptive optics is a telescope technique that acquires a clear star image by compensating for atmospheric fluctuations. It is an ophthalmoscope applied to the eye. The technique of this AO-SLO device has made it possible to resolve each photoreceptor cell of the retina of the eye to be examined. It is said that photoreceptor cells are present at approximately 2 μm intervals in the vicinity of the fovea, which has the highest density. Currently, development is being continued to improve the resolution for the purpose of imaging even the photoreceptor cells of the fovea.

描出された視細胞を臨床価値に繋げるためには、同一領域の視細胞を経時的に観察し、その変化を定量的に分析できる技術が求められている。AO−SLO装置で撮影した画像(以下、「AO−SLO画像」と称する)は、解像度が大きいために画角が小さく(撮影範囲が狭く)なる場合が多い。そのため、経時的な比較を行うためには、まず同一位置が撮影されている複数のAO−SLO画像を取得し、さらに取得された画像間で詳細な位置合わせを行う必要がある。これに関する従来の技術として、例えば特許文献1の技術がある。 In order to link the visualized photoreceptor cells to clinical value, there is a demand for a technique capable of observing photoreceptor cells in the same region over time and quantitatively analyzing the change. An image captured by an AO-SLO device (hereinafter referred to as "AO-SLO image") often has a small angle of view (a narrow imaging range) because of its large resolution. Therefore, in order to perform comparison over time, it is necessary to first acquire a plurality of AO-SLO images in which the same position is captured, and further perform detailed alignment between the acquired images. As a conventional technique related to this, for example, there is a technique disclosed in Patent Document 1.

具体的に、特許文献1には、OCT(Optical Coherence Tomography)による網膜の断層画像同士の経時比較を行うために、断層画像と同時に眼底の表面画像(眼底画像)を取得し、まず表面画像同士を位置合わせし、その後に各表面画像に対応付けられている断層画像同士を対応付けて経時比較を行う技術が記載されている。 Specifically, in Patent Document 1, in order to compare the tomographic images of the retina by OCT (Optical Coherence Tomography) with each other over time, a surface image of the fundus (fundus image) is acquired at the same time as the tomographic images, and first, the surface images are compared with each other. Is described, and thereafter, the tomographic images associated with the respective surface images are associated with each other and the temporal comparison is performed.

特開2007−252692号公報JP, 2007-252692, A

しかしながら、特許文献1に記載の技術では、位置合わせをする表面画像同士を最初に特定する必要があるため、被検眼の眼底における経時比較を効率良く行えないという問題があった。 However, the technique described in Patent Document 1 has a problem in that it is necessary to first specify surface images to be aligned with each other, and thus it is not possible to efficiently perform temporal comparison on the fundus of the eye to be inspected.

本発明は、このような問題点に鑑みてなされたものであり、被検眼の眼底における経時比較を効率良く行える仕組みを提供することを目的とする。 The present invention has been made in view of such problems, and an object thereof is to provide a mechanism capable of efficiently performing temporal comparison on the fundus of the eye to be inspected.

本発明の画像処理装置は、被検眼の眼底における所定の大きさの領域を撮影することにより得られた第1の画像と、前記被検眼の眼底における領域であって前記所定の大きさの領域よりも狭い領域を撮影することにより得られた第2の画像とを、撮影時期に基づくセットごとに対応付けて取得する画像取得手段と、同一の前記セットを構成する前記第1の画像と前記第2の画像との位置合わせである第1の位置合わせと、異なる複数の前記セットに含まれる前記第1の画像のそれぞれの位置合わせである第2の位置合わせとを行って、前記第1の位置合わせ及び前記第2の位置合わせに係る位置情報を生成する位置合わせ手段と、前記位置合わせ手段で生成された位置情報に基づいて、先に取得された前記セットである第1のセットに含まれる前記第2の画像と前記第1のセットよりも後に取得された前記セットである第2のセットに含まれる前記第2の画像とを、前記第1のセットに含まれる前記第1の画像または前記第2のセットに含まれる前記第1の画像に重畳させて、重畳画像を生成する重畳手段と、を有する。
また、本発明は、上述した画像処理装置による画像処理方法、及び、当該画像処理方法をコンピュータに実行させるためのプログラムを含む。
The image processing apparatus of the present invention is a first image obtained by photographing an area of a predetermined size on the fundus of the eye to be inspected, and an area of the eye fundus of the eye to be inspected, the area having the predetermined size. Image acquisition means for acquiring a second image obtained by photographing a smaller area than each other in association with each set based on the photographing time, and the first image and the above-mentioned first image forming the same set. The first alignment, which is the alignment with the second image, and the second alignment, which is the alignment of each of the first images included in the different sets, are performed to perform the first alignment. Of the first set, which is the previously acquired set, on the basis of the position alignment unit that generates position information related to the position alignment and the second position alignment, and the position information generated by the position alignment unit. The second image included and the second image included in the second set, which is the set acquired after the first set, are set to the first image included in the first set. A superimposing unit that superimposes the image or the first image included in the second set to generate a superimposed image.
The present invention also includes an image processing method by the above-described image processing apparatus, and a program for causing a computer to execute the image processing method.

本発明によれば、被検眼の眼底における経時比較を効率良く行うことができる。 According to the present invention, the temporal comparison of the fundus of the eye to be inspected can be efficiently performed.

本発明の第1の実施形態に係る画像処理装置を含む眼科装置の概略構成の一例を示すブロック図である。It is a block diagram which shows an example of schematic structure of the ophthalmologic apparatus containing the image processing apparatus which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態を示し、図1の撮影装置で生成された複数のAO−SLO画像とWF−SLO画像を模式的に示す図である。It is a figure which shows the 1st Embodiment of this invention and which shows typically several AO-SLO images and WF-SLO images produced|generated by the imaging device of FIG. 本発明の第1の実施形態を示し、図1の撮影装置における固視灯の点灯位置を操作するための固視灯マップを示す図である。It is a figure which shows the 1st Embodiment of this invention and shows the fixation lamp map for operating the lighting position of the fixation lamp in the imaging device of FIG. 本発明の第1の実施形態に係る画像処理装置による画像処理方法の処理手順の一例を示すフローチャートである。6 is a flowchart showing an example of a processing procedure of an image processing method by the image processing apparatus according to the first embodiment of the present invention. 図4のステップS430におけるセット内位置合わせ処理の詳細な処理手順の一例を示すフローチャートである。6 is a flowchart showing an example of a detailed processing procedure of in-set position alignment processing in step S430 of FIG. 4. 本発明の第1の実施形態を示し、図4のステップS450で生成される重畳画像の一例を模式的に示す図である。FIG. 5 is a diagram showing the first embodiment of the present invention and schematically showing an example of a superimposed image generated in step S450 of FIG. 4. 本発明の第1の実施形態を示し、位置合わせ済み経時解析対象AO−SLO画像群等の表示例を模式的に示す図である。It is a figure which shows the 1st Embodiment of this invention and which shows typically the example of a display of the time-aligned analysis target AO-SLO image group etc.. 本発明の第2の実施形態に係る画像処理装置による画像処理方法の処理手順の一例を示すフローチャートである。9 is a flowchart showing an example of a processing procedure of an image processing method by the image processing apparatus according to the second embodiment of the present invention.

以下に、図面を参照しながら、本発明を実施するための形態(実施形態)について説明する。 Hereinafter, modes (embodiments) for carrying out the present invention will be described with reference to the drawings.

(第1の実施形態)
まず、本発明の第1の実施形態について説明する。
(First embodiment)
First, a first embodiment of the present invention will be described.

第1の実施形態では、撮影装置によって被検眼の眼底に位置する網膜を経時的に撮影した画像を取得した後、同一位置を撮影している2つ以上の画像間の位置合わせを行う手法について説明する。具体的には、各AO−SLO画像を、同一のセットとして取得された(例えば同一日に撮影された)広画角のSLO画像(以下、「WF−SLO画像」と称する)と位置合わせをする。さらに、異なる複数のセット(例えば異なる日に取得されたセット)に含まれる画像のそれぞれの位置合わせをする。そして、これらの画像の位置情報に基づいて、異なるセットとして取得された(例えば異なる日に撮影された)複数のAO−SLO画像を、異なるセットとして取得された複数のWF−SLO画像のうちの1つのWF−SLO画像に重畳させて、重畳画像を生成する。 In the first embodiment, a method of acquiring an image of a retina located on the fundus of the eye to be inspected over time by an imaging device and then performing alignment between two or more images capturing the same position explain. Specifically, each AO-SLO image is aligned with a wide-angle SLO image (hereinafter referred to as “WF-SLO image”) acquired as the same set (for example, taken on the same day). To do. Further, each of the images included in different sets (for example, sets acquired on different days) is aligned. Then, based on the position information of these images, a plurality of AO-SLO images acquired as different sets (for example, captured on different days) are selected from among a plurality of WF-SLO images acquired as different sets. The superimposed image is generated by superimposing it on one WF-SLO image.

そして、第1の実施形態では、重畳画像の中から解析を行う領域として経時評価領域が選択されると、当該経時評価領域を含む全てのAO−SLO画像が表示される。そして、表示されたAO−SLO画像群の中から詳細に比較を行う画像群が選択されると、当該選択された画像間でより精度の高い詳細位置合わせを行う。 Then, in the first embodiment, when the temporal evaluation area is selected as an area to be analyzed from the superimposed image, all AO-SLO images including the temporal evaluation area are displayed. Then, when an image group to be compared in detail is selected from the displayed AO-SLO image group, more precise detailed alignment is performed between the selected images.

このように、第1の実施形態では、異なるセットとして取得された(異なる時期に取得された)AO−SLO画像群を1つのWF−SLO画像上に重畳して重畳画像を生成することにより、被検眼の眼底における経時比較を効率良く行うことができる。また、重畳画像の中から経時評価領域を選択することが可能となり、それに伴って比較したい画像を効率良く選択することができる。さらに、経時評価領域を含む画像群のみを対象として詳細位置合わせを行うことにより、位置合わせ処理時の間違いを減らすことができる。 Thus, in the first embodiment, by superimposing the AO-SLO image groups acquired as different sets (acquired at different times) on one WF-SLO image to generate a superimposed image, The temporal comparison of the fundus of the eye to be inspected can be efficiently performed. Further, it becomes possible to select a temporal evaluation region from the superimposed images, and accordingly, it is possible to efficiently select images to be compared. Further, by performing the detailed registration only for the image group including the temporal evaluation region, it is possible to reduce the error in the registration processing.

[眼科装置の概略構成]
図1は、本発明の第1の実施形態に係る画像処理装置100を含む眼科装置10の概略構成の一例を示すブロック図である。
本実施形態に係る眼科装置10は、図1に示すように、画像処理装置100、撮影装置(例えばAO−SLO装置)200、情報入力装置300、表示装置400、及び、データベース500を有して構成されている。
[Schematic configuration of ophthalmic device]
FIG. 1 is a block diagram showing an example of a schematic configuration of an ophthalmologic apparatus 10 including an image processing apparatus 100 according to the first embodiment of the present invention.
As shown in FIG. 1, the ophthalmologic apparatus 10 according to the present embodiment includes an image processing apparatus 100, a photographing apparatus (for example, AO-SLO apparatus) 200, an information input apparatus 300, a display apparatus 400, and a database 500. It is configured.

撮影装置200は、被検眼の眼底に位置する網膜を撮影して、AO−SLO画像や広画角のWF−SLO画像等の平面画像を生成する装置である。ここで、WF−SLO画像は、被検眼の眼底における所定の大きさの領域を撮影することにより得られた第1の画像に相当する。また、AO−SLO画像は、被検眼の眼底における領域であって前記所定の大きさの領域よりも狭い領域を撮影することにより得られた第2の画像に相当する。 The imaging device 200 is a device that images a retina located on the fundus of the eye to be inspected and generates a planar image such as an AO-SLO image or a WF-SLO image with a wide angle of view. Here, the WF-SLO image corresponds to a first image obtained by photographing an area of a predetermined size on the fundus of the eye to be inspected. Further, the AO-SLO image corresponds to a second image obtained by photographing a region that is a region of the fundus of the eye to be inspected and is narrower than the region of the predetermined size.

情報入力装置300は、画像処理装置100に対して各種の情報を入力する装置である。 The information input device 300 is a device for inputting various information to the image processing device 100.

画像処理装置100は、撮影装置200によって被検眼の眼底に位置する網膜を撮影することにより得られたAO−SLO画像やWF−SLO画像等の平面画像を画像処理する装置である。この画像処理装置100は、図1に示すように、画像取得部110、情報取得部120、制御部130、画像処理部140、記憶部150、及び、出力部160を有して構成されている。 The image processing apparatus 100 is an apparatus that performs image processing on a planar image such as an AO-SLO image or a WF-SLO image obtained by imaging the retina located on the fundus of the eye to be inspected by the imaging device 200. As shown in FIG. 1, the image processing apparatus 100 is configured to include an image acquisition unit 110, an information acquisition unit 120, a control unit 130, an image processing unit 140, a storage unit 150, and an output unit 160. ..

画像取得部110は、撮影装置200によって被検眼の眼底に位置する網膜を撮影することにより得られたAO−SLO画像やWF−SLO画像等の平面画像を取得する処理を行う。ここでは、撮影装置200から直接平面画像を取得する場合の他、以前に撮影装置200で得られ、画像処理を行った後にデータベース500に保存されている平面画像を、データベース500から取得する場合も含む。例えば、画像取得部110は、被検眼の眼底における所定の大きさの領域を撮影することにより得られたWF−SLO画像(第1の画像)と、前記被検眼の眼底における領域であって前記所定の大きさの領域よりも狭い領域を撮影することにより得られたAO−SLO画像(第2の画像)とを、撮影時期に基づくセットごとに対応付けて取得する。 The image acquisition unit 110 performs a process of acquiring a planar image such as an AO-SLO image or a WF-SLO image obtained by imaging the retina located on the fundus of the eye to be inspected by the imaging device 200. Here, in addition to the case where the plane image is directly acquired from the photographing apparatus 200, the case where the plane image previously obtained by the photographing apparatus 200 and stored in the database 500 after image processing is obtained from the database 500 is also available. Including. For example, the image acquisition unit 110 is a WF-SLO image (first image) obtained by capturing an area of a predetermined size in the fundus of the eye to be inspected, and the area in the fundus of the eye to be inspected. An AO-SLO image (second image) obtained by photographing an area narrower than a predetermined size is acquired in association with each set based on the photographing time.

情報取得部120は、撮影装置200や情報入力装置300から、各種の情報を取得する処理を行う。例えば、情報取得部120は、撮影装置200から被検眼に関する情報を取得したり、情報入力装置300から検者の入力情報を取得したりする。さらに、情報取得部120は、後述の重畳部142で生成された重畳画像の中から、経時評価を行う領域である経時評価領域を取得する処理を行う。この経時評価領域を取得する処理を行う情報取得部120は、領域取得手段を構成する。 The information acquisition unit 120 performs a process of acquiring various types of information from the image capturing device 200 and the information input device 300. For example, the information acquisition unit 120 acquires information regarding the eye to be inspected from the imaging device 200, or acquires input information of the examiner from the information input device 300. Further, the information acquisition unit 120 performs a process of acquiring a temporal evaluation area, which is an area in which temporal evaluation is performed, from the superimposed image generated by the superimposing unit 142 described below. The information acquisition unit 120 that performs the process of acquiring the temporal evaluation area constitutes an area acquisition unit.

制御部130は、画像処理装置100における動作を統括的に制御する。 The control unit 130 centrally controls the operation of the image processing apparatus 100.

画像処理部140は、制御部130の制御に基づいて、画像取得部110によって取得されたAO−SLO画像やWF−SLO画像等の平面画像を処理する。画像処理部140は、図1に示すように、位置合わせ部141、重畳部142、画像選択部143、領域抽出部144、及び、解析部145を有して構成されている。 The image processing unit 140 processes the planar image such as the AO-SLO image or the WF-SLO image acquired by the image acquisition unit 110 under the control of the control unit 130. As shown in FIG. 1, the image processing unit 140 includes a position alignment unit 141, a superposition unit 142, an image selection unit 143, a region extraction unit 144, and an analysis unit 145.

位置合わせ部141は、画像取得部110で取得されたAO−SLO画像やWF−SLO画像の各フレーム間の位置合わせや、AO−SLO画像とWF−SLO画像、及び経時的に取得されたWF−SLO画像同士やAO−SLO画像同士の位置合わせ処理を行う。この各種の位置合わせ処理を行った際、位置合わせ部141は、当該各種の位置合わせに係る位置情報を生成する。例えば、位置合わせ部141は、同一のセットを構成するWF−SLO画像とAO−SLO画像との位置合わせである第1の位置合わせと、異なる複数のセットに含まれるWF−SLO画像のそれぞれの位置合わせである第2の位置合わせとを行う。そして、位置合わせ部141は、第1の位置合わせ及び第2の位置合わせに係る位置情報を生成する。さらに、位置合わせ部141は、後述の画像選択部143で選択されたAO−SLO画像の群における詳細な位置合わせである第3の位置合わせを更に行い、第3の位置合わせに係る位置情報を生成する。 The alignment unit 141 performs alignment between the frames of the AO-SLO image and the WF-SLO image acquired by the image acquisition unit 110, the AO-SLO image and the WF-SLO image, and the WF acquired over time. -Alignment processing is performed between SLO images and between AO-SLO images. When the various alignment processes are performed, the alignment unit 141 generates position information related to the various alignments. For example, the alignment unit 141 performs the first alignment that is the alignment of the WF-SLO images and the AO-SLO images that configure the same set, and the WF-SLO images that are included in the different sets. The second alignment, which is alignment, is performed. Then, the alignment unit 141 generates position information related to the first alignment and the second alignment. Further, the alignment unit 141 further performs the third alignment, which is the detailed alignment in the group of AO-SLO images selected by the image selection unit 143 described later, and outputs the position information related to the third alignment. To generate.

重畳部142は、位置合わせ部141により対応付けられた複数のAO−SLO画像を基準となるWF−SLO画像上に重畳させて、重畳画像を生成する処理を行う。例えば、重畳部142は、位置合わせ部141で生成された位置情報に基づいて、先に取得されたセットである第1のセットに含まれるAO−SLO画像と第1のセットよりも後に取得されたセットである第2のセットに含まれるAO−SLO画像とを、第1のセットに含まれるWF−SLO画像または第2のセットに含まれるWF−SLO画像に重畳させて、重畳画像を生成する。 The superimposing unit 142 performs a process of superimposing the plurality of AO-SLO images associated by the alignment unit 141 on the reference WF-SLO image to generate a superimposed image. For example, the superimposing unit 142 is acquired after the AO-SLO image and the first set included in the first set, which is the previously acquired set, based on the position information generated by the position adjusting unit 141. And a AO-SLO image included in the second set, which is a second set, are superimposed on the WF-SLO image included in the first set or the WF-SLO image included in the second set to generate a superimposed image. To do.

画像選択部143は、情報取得部120において重畳画像の中から取得された経時評価領域を含むAO−SLO画像の群の中から、詳細な位置合わせ(詳細な経時解析)を行うAO−SLO画像の群を選択する処理を行う。 The image selection unit 143 performs an AO-SLO image that performs detailed alignment (detailed temporal analysis) from the group of AO-SLO images including the temporal evaluation region acquired from the superimposed image by the information acquisition unit 120. The process of selecting the group of is performed.

領域抽出部144は、位置合わせ部141で詳細な位置合わせである第3の位置合わせが行われたAO−SLO画像の群において共通に含まれる領域(重なりのある領域)である共通領域を抽出する処理を行う。 The area extraction unit 144 extracts a common area which is an area (area with overlap) commonly included in the group of AO-SLO images subjected to the third alignment, which is the detailed alignment by the alignment unit 141. Perform processing to

解析部145は、AO−SLO画像に対して、被検眼の視細胞抽出等の解析処理を行う。さらに、解析部145は、領域抽出部144で抽出された共通領域について被検眼の視細胞抽出や経時比較等の解析処理を行う。 The analysis unit 145 performs analysis processing such as photoreceptor cell extraction of the eye to be inspected on the AO-SLO image. Furthermore, the analysis unit 145 performs analysis processing such as photoreceptor cell extraction of the eye to be inspected and temporal comparison on the common region extracted by the region extraction unit 144.

記憶部150は、制御部130が処理を行う際に必要なプログラムや各種の情報等を記憶している。さらに、記憶部150は、制御部130の制御に基づいて、画像取得部110で取得した平面画像や、情報取得部120で取得した各種の情報、更には、画像処理部140の処理の結果得られた各種の情報等を記憶する。 The storage unit 150 stores programs and various information necessary for the control unit 130 to perform processing. Further, the storage unit 150, under the control of the control unit 130, obtains the planar image acquired by the image acquisition unit 110, various information acquired by the information acquisition unit 120, and further the result of the processing of the image processing unit 140. Stores various information obtained.

出力部160は、制御部130の制御に基づいて、画像取得部110で取得した平面画像や、情報取得部120で取得した各種の情報、更には、画像処理部140の処理の結果得られた各種の情報等を、表示装置400に出力して表示させる他、データベース500に出力して保存させる。 Based on the control of the control unit 130, the output unit 160 has obtained the planar image acquired by the image acquisition unit 110, various information acquired by the information acquisition unit 120, and the result of the processing of the image processing unit 140. Various information and the like are output to the display device 400 for display and also output to the database 500 for storage.

表示装置400は、出力部160から出力された平面画像や各種の情報等を表示する処理を行う。 The display device 400 performs a process of displaying a plane image output from the output unit 160, various types of information, and the like.

データベース500は、出力部160から出力された平面画像や各種の情報等を保存する処理を行う。 The database 500 performs a process of saving the planar image output from the output unit 160, various information, and the like.

[平面画像]
図2は、本発明の第1の実施形態を示し、図1の撮影装置200で生成された複数のAO−SLO画像とWF−SLO画像を模式的に示す図である。撮影装置200では、固視灯の点灯位置を変えることで、被検眼が異なる位置を凝視した状態として撮影することにより、被検眼の眼底に位置する網膜の異なる位置を撮影することができる。
[Plane image]
FIG. 2 shows the first embodiment of the present invention, and is a diagram schematically showing a plurality of AO-SLO images and WF-SLO images generated by the image capturing apparatus 200 of FIG. In the imaging device 200, different positions of the retina located on the fundus of the eye to be inspected can be imaged by changing the lighting position of the fixation lamp and taking an image of the eye to be inspected in a different state.

ここで、図2には、撮影装置200で生成された広画角のWF−SLO画像210と、複数のAO−SLO画像220とが示されている。一度の撮影により、図2に示すようなWF−SLO画像210とAO−SLO画像220のセットが取得される。本実施形態では、同一の被検眼を経時的に観察することにより、図2に示すようなセットが複数回取得されることになる。 Here, FIG. 2 shows a WF-SLO image 210 having a wide angle of view and a plurality of AO-SLO images 220 generated by the image capturing apparatus 200. A set of the WF-SLO image 210 and the AO-SLO image 220 as shown in FIG. 2 is acquired by one shooting. In the present embodiment, by observing the same eye to be examined with time, a set as shown in FIG. 2 is acquired multiple times.

図3は、本発明の第1の実施形態を示し、図1の撮影装置200における固視灯の点灯位置を操作するための固視灯マップを示す図である。
最初に、撮影装置200は、図3に示す固視灯マップの中心の位置を選択した状態で固視灯を点灯する。このとき、提示される固視灯を凝視した被検眼を撮影すると、被検眼の黄斑付近の撮影を行うことができる。
FIG. 3 shows the first embodiment of the present invention, and is a diagram showing a fixation lamp map for operating the lighting position of the fixation lamp in the image capturing apparatus 200 of FIG.
First, the image capturing apparatus 200 turns on the fixation lamp with the center position of the fixation lamp map shown in FIG. 3 selected. At this time, if the eye to be inspected that gazes at the presented fixation lamp is imaged, it is possible to image the vicinity of the macula of the eye to be inspected.

ここで、図2に示すWF−SLO画像210は、撮影装置200においてAO−SLO画像を取得する場合とは異なる光学系で、補償光学系を用いずに取得された低解像度で画角の広い画像である。このWF−SLO画像210は、被検眼の眼底に位置する網膜の広い所定の大きさの領域を撮影することで当該網膜の全体イメージを得るための画像である。 Here, the WF-SLO image 210 shown in FIG. 2 is an optical system different from the case of acquiring an AO-SLO image in the image capturing apparatus 200, and has a low resolution and a wide angle of view acquired without using an adaptive optical system. It is an image. The WF-SLO image 210 is an image for obtaining an entire image of the retina by photographing a wide area of the retina located at the fundus of the eye to be inspected.

図2に示すように、画角の狭いAO−SLO画像220をWF−SLO画像210と位置合わせをして対応付けることにより、画角の狭いAO−SLO画像220が被検眼の網膜全体のどの位置にあるかが示される。以下、本実施形態では、WF−SLO画像210は、画像サイズが8mm×6mm、ピクセルサイズが533ピクセル×400ピクセルであるものとする。また、AO−SLO画像220は、撮影領域のサイズが、1.7mm×1.7mm、0.82mm×0.82mm、0.34mm×0.34mmの3種類あり、そのピクセルサイズが全て共通で400ピクセル×400ピクセルである3種類の解像度が存在している。ここで、撮影領域のサイズが1.7mm×1.7mmのAO−SLO画像をL画角のAO−SLO画像220−Lとする。また、撮影領域のサイズが0.82mm×0.82mmのAO−SLO画像をM画角のAO−SLO画像220−Mとする。また、撮影領域のサイズが0.34mm×0.34mmのAO−SLO画像をS画角のAO−SLO画像220−Sとする。 As shown in FIG. 2, by aligning the AO-SLO image 220 having a narrow angle of view with the WF-SLO image 210 and associating them with each other, the position of the AO-SLO image 220 having a narrow angle of view in the entire retina of the eye to be inspected. Is shown. Hereinafter, in the present embodiment, the WF-SLO image 210 is assumed to have an image size of 8 mm×6 mm and a pixel size of 533 pixels×400 pixels. In addition, the AO-SLO image 220 has three types of shooting area sizes of 1.7 mm×1.7 mm, 0.82 mm×0.82 mm, and 0.34 mm×0.34 mm, and the pixel sizes are all common. There are three types of resolution, 400 pixels x 400 pixels. Here, the AO-SLO image in which the size of the imaging region is 1.7 mm×1.7 mm is the AO-SLO image 220-L having the L angle of view. Further, an AO-SLO image in which the size of the imaging region is 0.82 mm×0.82 mm is set as an AO-SLO image 220-M having an M field angle. In addition, an AO-SLO image in which the size of the shooting region is 0.34 mm×0.34 mm is referred to as an AO-SLO image 220-S having an S angle of view.

また、ここで説明しているWF−SLO画像210及びAO−SLO画像220は、複数のフレームより構成される動画像として取得され、フレームレート及び撮影時間により構成されるフレーム数が変化する。本実施形態では、AO−SLO画像220は、フレームレートが毎秒32フレーム、撮影時間が1秒で、32枚のフレームより構成されるものとする。また、WF−SLO画像210は、フレームレートが毎秒14フレーム、撮影時間が1秒で、14枚のフレームより構成されるものとする。また、以下に説明する視細胞解析では、S画角のAO−SLO画像220−Sを解析対象とするものとする。また、WF−SLO画像210とAO−SLO画像220を平面画像と称する。 Further, the WF-SLO image 210 and the AO-SLO image 220 described here are acquired as moving images including a plurality of frames, and the number of frames configured by the frame rate and the shooting time changes. In this embodiment, the AO-SLO image 220 has a frame rate of 32 frames per second and a shooting time of 1 second, and is composed of 32 frames. The WF-SLO image 210 has a frame rate of 14 frames per second and a shooting time of 1 second, and is composed of 14 frames. In the photoreceptor cell analysis described below, the AO-SLO image 220-S with the S angle of view is set as the analysis target. In addition, the WF-SLO image 210 and the AO-SLO image 220 are referred to as plane images.

[撮影プロトコル]
被検眼の撮影プロトコルは、被検眼の着目したい疾病等によって異なるが、標準プロトコルとしては、最初に黄斑を中心としたWF−SLO画像210を撮影し、その後、網膜の複数の位置を解像度の異なるAO−SLO画像220を組み合わせながら撮影を行う。また、経時的に同一の被検眼を観察する場合には、同一のプロトコルで撮影することが一般的であるが、着目する疾病部位の周辺のみを少しずつ位置を変えながら、複数撮影するような場合もある。
[Shooting protocol]
The imaging protocol of the eye to be inspected varies depending on the disease or the like to be noticed in the eye to be inspected, but as the standard protocol, first, the WF-SLO image 210 centering on the macula is imaged, and then a plurality of positions of the retina are different in resolution. Photographing is performed while combining the AO-SLO images 220. In addition, when observing the same eye to be examined over time, it is common to take an image using the same protocol, but multiple images are taken while gradually changing the position only around the diseased part of interest. In some cases.

[画像処理装置100の処理手順]
図4は、本発明の第1の実施形態に係る画像処理装置100による画像処理方法の処理手順の一例を示すフローチャートである。
[Processing Procedure of Image Processing Device 100]
FIG. 4 is a flowchart showing an example of a processing procedure of an image processing method by the image processing apparatus 100 according to the first embodiment of the present invention.

<ステップS410>
まず、ステップS410において、情報取得部120は、情報入力装置300から入力される、患者情報として被検眼の情報を取得する。そして、情報取得部120は、取得した被検眼の情報を、制御部130を介して、記憶部150に記憶する。ここで、被検眼の情報には、被検者のIDや生年月日等の被検者情報や、被検眼の眼軸長等の計測データの情報、更には、過去に撮影された画像等の情報が含まれる。
<Step S410>
First, in step S410, the information acquisition unit 120 acquires the information on the eye to be inspected as the patient information, which is input from the information input device 300. Then, the information acquisition unit 120 stores the acquired information about the eye to be inspected in the storage unit 150 via the control unit 130. Here, the information on the eye to be inspected includes information on the person to be inspected such as the ID of the person to be inspected and the date of birth, information on measurement data such as the axial length of the eye to be inspected, and images taken in the past. Information is included.

<ステップS420>
続いて、ステップS420において、画像取得部110は、撮影装置200またはデータベース500から、経時的に取得された、被検眼の眼底に位置する網膜の平面画像(WF−SLO画像210及びAO−SLO画像220)における複数のセットを取得する。そして、画像取得部110は、取得した平面画像における複数のセットを、制御部130を介して、記憶部150に記憶する。ここで、本実施形態においては、平面画像のセットとは、同一の被検眼に対して経時的に撮影が行われた場合に、例えば同一日に撮影されたWF−SLO画像210及びAO−SLO画像220で構成される画像群のことを指すものとする。但し、例えば、治療の前後で撮影を行って比較する場合等では、同一日の撮影であっても治療の前と後でそれぞれ異なるセットとして扱われる場合もあるものとする。
<Step S420>
Subsequently, in step S420, the image acquisition unit 110 acquires, over time, the planar image of the retina located on the fundus of the eye to be inspected (WF-SLO image 210 and AO-SLO image) from the imaging apparatus 200 or the database 500. 220) to obtain multiple sets. Then, the image acquisition unit 110 stores the plurality of sets in the acquired planar image in the storage unit 150 via the control unit 130. Here, in the present embodiment, a set of planar images means, for example, a WF-SLO image 210 and an AO-SLO image 210 taken on the same day when the same eye is imaged over time. An image group composed of the images 220 will be referred to. However, for example, in the case where images are taken before and after the treatment for comparison, the images taken on the same day may be treated as different sets before and after the treatment.

<ステップS430>
続いて、ステップS430において、位置合わせ部141は、ステップS420で取得された平面画像における複数のセットの各セットに対して、同一のセットに含まれるWF−SLO画像210とAO−SLO画像220との位置合わせを行う。この際、位置合わせ部141は、各セットにおける位置合わせに係る位置情報を生成する。このステップS430におけるセット内位置合わせは第1の位置合わせに相当し、また、このステップS430の詳細な処理を図5を用いて以下に説明する。
<Step S430>
Subsequently, in step S430, for each set of the plurality of sets in the plane image acquired in step S420, the alignment unit 141 sets the WF-SLO image 210 and the AO-SLO image 220 included in the same set. Align the. At this time, the alignment unit 141 generates position information regarding alignment in each set. The in-set alignment in step S430 corresponds to the first alignment, and the detailed processing of step S430 will be described below with reference to FIG.

図5は、図4のステップS430におけるセット内位置合わせ処理の詳細な処理手順の一例を示すフローチャートである。 FIG. 5 is a flowchart showing an example of a detailed processing procedure of the in-set alignment processing in step S430 of FIG.

≪ステップS431≫
まず、ステップS431において、位置合わせ部141は、AO−SLO画像もしくはWF−SLO画像のフレーム間位置合わせを行う。上述したように、AO−SLO画像は32枚、WF−SLO画像は14枚の画像により構成されている。これらの画像は被検眼の網膜上の同一の位置を撮影しているが、被検眼の固視微動のために位置ずれや画像内歪みが生じている。このため、フレーム間の位置合わせを行い、歪みや位置ズレを補正する必要がある。このようなフレーム内の位置ズレや歪みは、広い範囲を撮影しているWF−SLO画像に比べて、撮影範囲の狭いAO−SLO画像により大きな影響がある。このため、AO−SLO画像の場合についての処理手順を説明する。
<<Step S431>>
First, in step S431, the alignment unit 141 performs inter-frame alignment of the AO-SLO image or the WF-SLO image. As described above, the AO-SLO image is composed of 32 images and the WF-SLO image is composed of 14 images. These images are taken at the same position on the retina of the eye to be inspected, but there are displacements and intra-image distortions due to involuntary eye movements. Therefore, it is necessary to align the frames to correct the distortion and the positional deviation. Such a positional shift or distortion within a frame has a greater effect on an AO-SLO image having a narrower shooting range than on a WF-SLO image which shoots a wide range. Therefore, the processing procedure for the AO-SLO image will be described.

まず、32フレームの中から最も歪みの少ないフレームを選択して基準フレームとし、その後、基準フレームに対してそれ以外のフレームの位置合わせを行う。この基準フレームの選択は、ユーザが行うこともできるし、画質指標等を用いて自動で行うこともできる。基準フレームに、それ以外のフレームの位置合わせをする方法としては複数の方法が知られているが、ここでは位相限定相関法を用いた位置合わせを用いる。網膜を撮影したAO−SLO画像には、ランドマークとなるような特徴物を画像内に含まない場合が多いため、視細胞の配置情報からでも精度の高い位置合わせが可能な手法を用いる必要があるためである。 First, the frame with the least distortion is selected from the 32 frames as a reference frame, and then the other frames are aligned with the reference frame. This reference frame can be selected by the user or automatically by using the image quality index or the like. Although a plurality of methods are known as methods for aligning the reference frame with the other frames, the alignment using the phase-only correlation method is used here. In many cases, the AO-SLO image obtained by photographing the retina does not include a feature such as a landmark in the image. Therefore, it is necessary to use a method that enables highly accurate alignment even from the arrangement information of photoreceptor cells. Because there is.

具体的には、位置合わせ部141は、基準フレーム以外のフレームを1枚選択し(以下、選択したフレームを「現フレーム」と称する)、基準フレームと現フレームの全体で位相限定相関法を用いて並行移動量を算出する。次いで、位置合わせ部141は、並行移動した状態で基準フレームと現フレームの重なる領域を求め、その領域内に複数の小領域を設定する。ここでは、位置合わせ部141は、64ピクセル×64ピクセルの小領域を縦横6個ずつ、合計36個設定する。そして、位置合わせ部141は、それぞれの小領域に対応する基準フレーム、現フレームに含まれる画像に対して、再び位相限定相関法を用いて、小領域間の位置ズレ(並行移動量)を求める。そして、位置合わせ部141は、36箇所の並行移動を最適化するアフィン変換を求めて、現フレームに適応する。さらに、位置合わせ部141は、アフィン変換で求められた各小領域の変形と、上記で求めた並行移動量に差異がある場合にはその微修正も行い、得られた情報に基づき位置を修正した画像を生成する。そして、位置合わせ部141は、上述した処理を基準フレーム以外の全31フレームに対して行うことにより、基準フレームに位置合わせされたAO−SLO画像(以下、「位置合わせ済みAO−SLO画像」と称する)を取得する。さらに、位置合わせ部141は、WF−SLO画像に関しても、AO−SLOと同様の手法により、位置合わせ済みWF−SLO画像を取得する。 Specifically, the alignment unit 141 selects one frame other than the reference frame (hereinafter, the selected frame is referred to as “current frame”), and uses the phase-only correlation method for the entire reference frame and current frame. Then, the parallel movement amount is calculated. Next, the alignment unit 141 obtains an area where the reference frame and the current frame overlap in the state of parallel movement, and sets a plurality of small areas in the area. Here, the alignment unit 141 sets a total of 36 small regions of 64 pixels×64 pixels, 6 in each of the vertical and horizontal directions. Then, the alignment unit 141 uses the phase-only correlation method again with respect to the images included in the reference frame and the current frame corresponding to each small area, and obtains the positional deviation (parallel movement amount) between the small areas. .. Then, the alignment unit 141 finds the affine transformation that optimizes the parallel movement at 36 locations, and applies it to the current frame. Further, the alignment unit 141 also finely corrects the deformation of each small area obtained by the affine transformation and the parallel movement amount obtained above if there is a difference, and corrects the position based on the obtained information. The generated image. Then, the alignment unit 141 performs the above-described processing on all 31 frames other than the reference frame, so that the AO-SLO image aligned with the reference frame (hereinafter, referred to as “aligned AO-SLO image”). Get). Further, the alignment unit 141 also acquires the aligned WF-SLO image for the WF-SLO image by the same method as the AO-SLO image.

≪ステップS432≫
続いて、ステップS432において、位置合わせ部141は、位置合わせ済みAO−SLO画像を用いた重ね合わせ画像(以下、「重ね合わせAO−SLO画像」と称する)を生成する。具体的に、位置合わせ部141は、基準フレームの各画素(400ピクセル×400ピクセル)に対して、対応する各フレームの画素値を積算して平均値を取得する。ここで、位置合わせ部141は、あるピクセルに対しては、位置ずれにより対応する画素が存在しないフレームも存在するため、対応する画素値をもつ画素のみで平均値を求める。また、位置合わせ部141は、WF−SLO画像に関しても、AO−SLO画像と同様の手法により、重ね合わせWF−SLO画像を生成する。
<<Step S432>>
Subsequently, in step S432, the alignment unit 141 generates a superimposed image using the aligned AO-SLO image (hereinafter, referred to as “superimposed AO-SLO image”). Specifically, the alignment unit 141 accumulates the pixel value of each corresponding frame with respect to each pixel (400 pixels×400 pixels) of the reference frame, and acquires an average value. Here, the alignment unit 141 obtains an average value only for pixels having a corresponding pixel value, because there is a frame in which a corresponding pixel does not exist for a certain pixel due to a positional shift. Further, the alignment unit 141 also generates a superimposed WF-SLO image for the WF-SLO image by the same method as that for the AO-SLO image.

≪ステップS433≫
続いて、ステップS433において、位置合わせ部141は、ステップS432で取得した同一のセットの重ね合わせWF−SLO画像と重ね合わせAO−SLO画像との間で位置合わせを行う。そして、位置合わせ部141は、それぞれのAO−SLO画像のWF−SLO画像上での位置に係る位置情報を取得する。
<<Step S433>>
Subsequently, in step S433, the alignment unit 141 performs alignment between the superimposed WF-SLO image and the superimposed AO-SLO image of the same set acquired in step S432. Then, the position alignment unit 141 acquires position information regarding the position of each AO-SLO image on the WF-SLO image.

ステップS431のフレーム間位置合わせと異なり、ここでは、解像度の異なる画像間での位置合わせが必要となる。この場合、位置合わせは、解像度が近い画像同士の方が高精度となるため、まずは重ね合わせWF−SLO画像と、最も解像度の低いL画角の重ね合わせAO−SLO画像との位置合わせを行い、L画角のAO−SLO画像のWF−SLO画像に対応する位置情報を取得する。その後、重ね合わせWF−SLO画像の対応する位置にL画角の重ね合わせAO−SLO画像をはめ込んだ合成画像を生成する。 Unlike the inter-frame alignment in step S431, alignment between images having different resolutions is required here. In this case, since the images with similar resolutions are more accurate in the alignment, first, the overlay WF-SLO image and the overlay AO-SLO image with the lowest resolution L-view angle are aligned. , The position information corresponding to the WF-SLO image of the AO-SLO image with the L angle of view is acquired. After that, a composite image in which the superimposed AO-SLO image having the L field angle is fitted to the corresponding position of the superimposed WF-SLO image is generated.

同一のセット内に複数のWF−SLO画像が存在する場合には、位置合わせ部141は、基準となるWF−SLO画像(以下、「基準WF−SLO画像」と称する)を決め、その重ね合わせWF−SLO画像に対して、L画角の重ね合わせAO−SLO画像の位置合わせを行う。そして、位置合わせ部141は、全てのL画角の重ね合わせAO−SLO画像を、前のステップで生成した合成画像に対して位置合わせをし、対応する位置にはめ込んで合成画像を更新する。L画角の重ね合わせAO−SLO画像の対応付けが終了したら、次に解像度の低いM画角の重ね合わせAO−SLO画像を、L画角の場合と同様に処理して合成画像を更新する。その後、S画角の重ね合わせAO−SLO画像の位置合わせも同様に行う。 When there are a plurality of WF-SLO images in the same set, the alignment unit 141 determines a reference WF-SLO image (hereinafter, referred to as “reference WF-SLO image”) and superimposes them. The position of the superposed AO-SLO image with the L angle of view is aligned with the WF-SLO image. Then, the alignment unit 141 aligns the superposed AO-SLO images of all L angles of view with the composite image generated in the previous step, and fits the composite image in the corresponding position to update the composite image. When the association of the superposed AO-SLO images with the L field angle is completed, the superposed AO-SLO image with the next lower resolution M field angle is processed as in the case of the L field angle to update the composite image. .. After that, the registration of the superimposed AO-SLO images of the S angle of view is performed in the same manner.

位置合わせには複数の手法があるが、このステップS433でも、ステップS431と同様、位相限定相関法を用いて位置合わせを行う。但し、解像度の異なる画像間での位置合わせに対応するために、全ての平面画像(重ね合わせWF−SLO画像及びL画角,M画角,S画角の重ね合わせAO−SLO画像)をL画角と同じ4.25μ/ピクセルの解像度に揃える。具体的には、M画角,S画角の重ね合わせAO−SLO画像の場合は、それぞれ2.07倍、5倍にダウンサンプリングし、重ね合わせWF−SLO画像の場合は約3.5倍にアップサンプリングする。さらに、画角によるコントラストの違いを調整するために、ローパス・フィルタやハイパス・フィルタによる前処理を行う。 Although there are a plurality of methods for alignment, alignment is performed also in step S433 using the phase-only correlation method as in step S431. However, all planar images (superimposed WF-SLO image and superposed AO-SLO image of L-field angle, M-field angle, and S-field angle) are L-sized in order to correspond to alignment between images having different resolutions. The resolution is 4.25 μ/pixel, which is the same as the angle of view. Specifically, in the case of the superposed AO-SLO image of the M field angle and the S field of view, downsampling is performed to 2.07 times and 5 times respectively, and in the case of the superposed WF-SLO image, it is approximately 3.5 times. Upsample to. Further, in order to adjust the difference in contrast depending on the angle of view, preprocessing by a low-pass filter or a high-pass filter is performed.

以上のステップS431〜S433の処理を、ステップS420で取得した全てのセットに対して行うことで各セット内での位置合わせを行い、図7のステップS430の処理が終了する。 The processes in steps S431 to S433 described above are performed for all the sets acquired in step S420 to perform alignment within each set, and the process in step S430 in FIG. 7 ends.

ここでは、経時比較を行う際に平面画像の複数のセットを取得し、それぞれのセット内での位置合わせを行う場合について説明した。しかしながら、実際には、各セットを取得した際に、同一のセット内で画像の閲覧や解析を行う目的で、画像間の位置合わせを行う場合がある。その場合には、ステップS433の処理が完了した状態でその情報がデータベース500に保存されているため、ステップS420で平面画像のセットを取得する際に同時にステップS430で行う位置合わせの情報も取得し、ステップS430の処理は行わない。 Here, a case has been described in which a plurality of sets of planar images are acquired when performing temporal comparison, and alignment is performed within each set. However, in actuality, when each set is acquired, alignment between images may be performed for the purpose of browsing and analyzing images in the same set. In that case, since the information is stored in the database 500 in the state where the process of step S433 is completed, the information of the alignment performed in step S430 is also acquired when the set of the planar images is acquired in step S420. The processing of step S430 is not performed.

<ステップS440>
続いて、ステップS440において、位置合わせ部141は、ステップS420で取得された平面画像における複数のセット間の位置合わせを行うために、各セットの基準WF−SLO画像同士の位置合わせを行う。この際、位置合わせ部141は、各セットの基準WF−SLO画像同士の位置合わせに係る位置情報を生成する。このステップS440におけるセット間位置合わせは第2の位置合わせに相当する。
<Step S440>
Subsequently, in step S440, the alignment unit 141 aligns the reference WF-SLO images of each set in order to align the plurality of sets in the plane image acquired in step S420. At this time, the alignment unit 141 generates position information regarding alignment of the reference WF-SLO images of each set. The inter-set alignment in step S440 corresponds to the second alignment.

ここで、位置合わせ部141は、同一の被検眼に対して経時的に取得された複数のセットの中で、基準となるセットを選択する(以下、選択したセットを「ベースライン・セット」と称する)。このベースライン・セットは、経時比較の基準となるセットであり、同一の被検眼に対して取得された平面画像のセットのうちの最も新しいセットを選択する場合もあれば、最も古いセットを選択する場合もある。或いは、ユーザが疾病等の進行に合わせて選択することも可能である。 Here, the alignment unit 141 selects a reference set from a plurality of sets acquired over time for the same eye to be examined (hereinafter, the selected set is referred to as a “baseline set”). Referred to). This baseline set is a reference set for comparison with time, and may select the newest set or the oldest set of the planar images acquired for the same eye to be examined. In some cases. Alternatively, the user can make a selection according to the progress of a disease or the like.

上述した基準WF−SLO画像同士の位置合わせは、ベースライン・セットに含まれる基準WF−SLO画像(以下、「ベースラインWF−SLO画像」と称する)に対し、各平面画像セットの基準WF−SLO画像の位置関係を取得することにより行われる。具体的に、位置合わせ部141は、ベースラインWF−SLO画像と、1つのセットの基準WF−SLO画像のそれぞれから400ピクセル×400ピクセルの領域を切り出し、それぞれの画像の輝度ヒストグラムの平均値・分散が同じとなるようにコントラスト調整した後、位相限定相関法を用いて並行移動量を取得する。そして、位置合わせ部141は、同様の処理を全ての平面画像セットの基準WF−SLO画像に対して行い、ベースライン・セットに対する、各セットの相対位置(並行移動量)を取得する。そして、位置合わせ部141は、取得した複数のセットの相対位置を、制御部130を介して、記憶部150に記憶する。 The alignment of the reference WF-SLO images described above is performed by comparing the reference WF-SLO images included in the baseline set (hereinafter, referred to as "baseline WF-SLO image") with the reference WF- of each planar image set. This is performed by acquiring the positional relationship of the SLO image. Specifically, the alignment unit 141 cuts out a region of 400 pixels×400 pixels from each of the baseline WF-SLO image and one set of reference WF-SLO images, and calculates the average value of the luminance histogram of each image. After adjusting the contrast so that the variances are the same, the parallel movement amount is acquired using the phase-only correlation method. Then, the alignment unit 141 performs the same processing on the reference WF-SLO images of all the planar image sets, and acquires the relative position (parallel movement amount) of each set with respect to the baseline set. Then, the alignment unit 141 stores the acquired relative positions of the plurality of sets in the storage unit 150 via the control unit 130.

<ステップS450>
続いて、ステップS450において、重畳部142は、ステップS430における同一のセット内の位置合わせ(第1の位置合わせ)の結果と、ステップS440における複数のセット間の位置合わせ(第2の位置合わせ)の結果に基づき、全てのAO−SLO画像をベースラインWF−SLO上に重畳させて、重畳画像を生成する。その後、制御部130は、重畳部142で生成された重畳画像を、出力部160を介して、表示装置に表示させる制御を行う。
<Step S450>
Subsequently, in step S450, the superimposing unit 142 causes the result of the alignment (first alignment) in the same set in step S430 and the alignment between the plurality of sets in step S440 (second alignment). Based on the result of (3), all AO-SLO images are superimposed on the baseline WF-SLO to generate a superimposed image. Then, the control unit 130 controls the display device to display the superimposed image generated by the superimposing unit 142 via the output unit 160.

ここで、重畳画像は、視細胞解析の対象となる画角の画像のみを用いて生成するものとする。本実施形態においては、解析対象となるのはS画角のみであるため、S画角のみを用いた重畳画像を生成する場合について説明する。 Here, it is assumed that the superimposed image is generated using only the image of the view angle that is the target of the photoreceptor cell analysis. In the present embodiment, only the S angle of view is the analysis target, so a case will be described in which a superimposed image is generated using only the S angle of view.

まず、重畳部142は、ステップS420で取得された平面画像の複数のセットのうちのベースライン・セットに含まれるS画角のAO−SLO画像について、ステップS433で求めた各重ね合わせAO−SLO画像の、ベースラインWF−SLO画像に対する相対位置情報を取得する。ここで、ベースライン・セットでは、ステップS433の基準WF−SLO画像がベースラインWF−SLO画像と一致するため、ステップS433で取得した位置情報をそのまま用いることができる。 First, the superimposing unit 142, for the AO-SLO image of the S angle of view included in the baseline set of the plurality of sets of planar images acquired in step S420, calculates each of the superimposed AO-SLO images obtained in step S433. The relative position information of the image with respect to the baseline WF-SLO image is acquired. Here, in the baseline set, since the reference WF-SLO image in step S433 matches the baseline WF-SLO image, the position information acquired in step S433 can be used as it is.

次いで、重畳部142は、ステップS420で取得された平面画像の複数のセットのうちのベースライン・セット以外のセットに含まれるS画角のAO−SLO画像について、ステップS440で取得した相対位置情報と、ステップS433で取得した相対位置情報を取得する。具体的に、重畳部142は、ベースラインWF−SLO画像と各セットの基準WF−SLO画像との相対位置情報をステップS440で取得し、基準WF−SLO画像と各重ね合わせAO−SLO画像との相対位置情報をステップS443で取得する。そして、重畳部142は、これらの相対位置情報を用いて、ベースラインWF−SLO画像と各重ね合わせAO−SLO画像との相対位置情報を取得する。本実施形態では、ベースラインWF−SLO画像と各セットの基準WF−SLO画像との相対位置としては並行移動位置のみを取得し、アフィン変換から取得した回転やせん断等のパラメータは考慮していないが、これらを考慮しても良い。 Next, the superimposing unit 142 acquires the relative position information acquired in step S440 with respect to the AO-SLO image having the S angle of view included in a set other than the baseline set among the plurality of sets of planar images acquired in step S420. Then, the relative position information acquired in step S433 is acquired. Specifically, the superimposing unit 142 acquires relative position information between the baseline WF-SLO image and the reference WF-SLO images of each set in step S440, and the reference WF-SLO image and each superimposed AO-SLO image are acquired. The relative position information of is acquired in step S443. Then, the superimposing unit 142 acquires relative position information between the baseline WF-SLO image and each superimposed AO-SLO image using these relative position information. In the present embodiment, only the parallel movement position is acquired as the relative position between the baseline WF-SLO image and the reference WF-SLO image of each set, and the parameters such as rotation and shear acquired from the affine transformation are not considered. However, these may be taken into consideration.

次いで、重畳部142は、対象とする全S画角の重ね合わせAO−SLO画像の、ベースラインWF−SLO画像に対する位置情報に基づき、例えば画像の重なり枚数の量を反映して画素値を変化させた重畳画像を生成する。具体的に、重畳部142は、重畳画像を生成する際に、まず、S画角の重ね合わせAO−SLO画像の位置情報からその画像が存在するベースラインWF−SLO画像上の領域を求め、各画素に対してその上に重畳されるAO−SLO画像の枚数を取得する。次に、ベースラインWF−SLO画像の輝度値を表示用に変換する。変換の方法は複数存在するが、ここではベースラインWF−SLO画像の最大輝度値と最低輝度値を取得し、その差を255分割して画素の深度(depth)を8ビットとする。このような変換を行った場合、ベースラインWF−SLO画像の最低輝度値は0、最大輝度値は255となる。その後、重畳部142は、画素値が0の場合(重畳されるAO−SLO画像は無し)にはベースラインWF−SLO画像の対応する画素の変換された輝度値を設定し、画素値が0以外の場合には重畳枚数を反映した輝度値を設定する。例えば、重畳部142は、全S画角の重ね合わせAO−SLO画像の枚数がN枚の場合、ある画素に存在するS画角の重ね合わせAO−SLO画像の枚数がMであったとき、その輝度値Iを以下の(1)式のように設定する。 Next, the superimposing unit 142 changes the pixel value, for example, by reflecting the amount of overlapping images, based on the position information of the superposed AO-SLO images of all S field angles of interest with respect to the baseline WF-SLO images. The superimposed image thus generated is generated. Specifically, when generating the superimposed image, the superimposing unit 142 first obtains an area on the baseline WF-SLO image in which the image exists from the position information of the superimposed AO-SLO image having the S field angle, For each pixel, the number of AO-SLO images superimposed on it is acquired. Next, the luminance value of the baseline WF-SLO image is converted for display. Although there are a plurality of conversion methods, here, the maximum brightness value and the minimum brightness value of the baseline WF-SLO image are acquired, and the difference is divided into 255 to set the pixel depth to 8 bits. When such conversion is performed, the minimum luminance value of the baseline WF-SLO image is 0 and the maximum luminance value is 255. Then, the superimposing unit 142 sets the converted luminance value of the corresponding pixel of the baseline WF-SLO image when the pixel value is 0 (there is no superimposed AO-SLO image), and the pixel value is 0. In other cases, a brightness value that reflects the number of superimposed images is set. For example, when the number of superposed AO-SLO images of all S field angles is N, and the number of superposed AO-SLO images of S field angle present in a certain pixel is M, the superposition unit 142 determines that The brightness value I is set as in the following expression (1).

ここで、Iの値の決め方には様々な方法が考えられる。例えば、Nを全S画角の重ね合わせAO−SLO画像の枚数ではなく、画素上で重畳されるAO−SLO画像の枚数の最大値とすることもができる。また,Nをあらかじめ決められた枚数(例えば30枚)とし、MがNよりも大きくなる場合には、Iをdepthとする方法も考えられる。 Here, various methods can be considered for determining the value of I. For example, N may be the maximum value of the number of AO-SLO images to be superimposed on the pixel, instead of the number of superimposed AO-SLO images of all S field angles. In addition, a method in which N is set to a predetermined number (for example, 30) and I is set to depth when M is larger than N is also considered.

図6は、本発明の第1の実施形態を示し、図4のステップS450で生成される重畳画像600の一例を模式的に示す図である。この図6に示す重畳画像600では、グレースケールで重ね合わせAO−SLO画像の枚数のみを反映する例を示したが、この方法以外にも様々な方法が考えられる。例えば、重ね合わせAO−SLO画像の枚数の多さをカラー表示することも可能である。さらに、例えば、重ね合わせAO−SLO画像が含まれるセットごとに色をかえて重畳画像を生成することも可能である。 FIG. 6 shows the first embodiment of the present invention, and is a diagram schematically showing an example of the superimposed image 600 generated in step S450 of FIG. In the superimposed image 600 shown in FIG. 6, an example in which only the number of superimposed AO-SLO images is reflected in gray scale is shown, but various methods other than this method can be considered. For example, it is possible to display in color the large number of superimposed AO-SLO images. Further, for example, it is possible to change the color for each set including the superimposed AO-SLO image and generate the superimposed image.

そして、制御部130は、重畳部142で生成された重畳画像を、記憶部150に記憶する制御を行うとともに、出力部160を通じて外部の表示装置400に表示する制御を行う。 Then, the control unit 130 controls the storage of the superimposed image generated by the superimposing unit 142 in the storage unit 150 and the control of displaying the superimposed image on the external display device 400 via the output unit 160.

<ステップS460>
続いて、ステップS460において、情報取得部120は、情報入力装置300からユーザが選択した経時評価領域を取得する処理を行う。そして、情報取得部120は、取得した経時評価領域を、制御部130を介して、記憶部150に記憶する。ここで、経時評価領域とは、例えば、ステップS450において表示装置400に表示された重畳画像上で、ユーザがマウス等を用いて経時評価を行う領域として選択した領域のことである。より具体的には、ユーザが、表示装置400に表示された重畳画像上の1点をクリックすることで、その座標として取得することも可能であるし、もしくは重畳画像上で領域を指定し選択することも可能である。さらに、ユーザの入力によらずとも、重畳画像の中から自動的に経時評価領域を取得することも可能である。例えば、情報取得部120は、重畳画像上で重畳枚数が最も多い領域を経時評価領域として取得したり、異なる平面画像のセットに属する画像の重畳枚数が最も多い領域を経時評価領域として取得したりすることも可能である。さらに、情報取得部120は、そのように枚数を数える場合に、各画像のコントラスト等の画質で重みをつけて、画質が所定の閾値よりも高い画像の枚数が多い領域を経時評価領域として取得することも可能である。
<Step S460>
Subsequently, in step S460, the information acquisition unit 120 performs a process of acquiring the temporal evaluation area selected by the user from the information input device 300. Then, the information acquisition unit 120 stores the acquired temporal evaluation area in the storage unit 150 via the control unit 130. Here, the temporal evaluation region is, for example, a region selected by the user on the superimposed image displayed on the display device 400 in step S450 as a region to be temporally evaluated using a mouse or the like. More specifically, the user can click one point on the superimposed image displayed on the display device 400 to obtain the coordinate, or specify a region on the superimposed image and select it. It is also possible to do so. Furthermore, it is also possible to automatically acquire the temporal evaluation region from the superimposed image without depending on the user's input. For example, the information acquisition unit 120 acquires, as the temporal evaluation area, the area with the largest number of superimposed images on the superimposed image, or acquires the area with the largest number of superimposed images belonging to different sets of planar images as the temporal evaluation area. It is also possible to do so. Further, the information acquisition unit 120 weights the image quality such as the contrast of each image when counting the number of images in such a manner, and acquires an area with a large number of images whose image quality is higher than a predetermined threshold value as a temporal evaluation area. It is also possible to do so.

<ステップS470>
続いて、ステップS470において、画像選択部143は、ステップS432で生成された全S画角の重ね合わせAO−SLO画像の中から、ステップS460で取得された経時評価領域を含む重ね合わせAO−SLO画像を選択する。その後、制御部130は、画像選択部143で選択された重ね合わせAO−SLO画像の群の一覧を、出力部160を通じて外部の表示装置400に表示する制御を行う。
<Step S470>
Subsequently, in step S470, the image selection unit 143 selects the overlay AO-SLO including the temporal evaluation region acquired in step S460 from the overlay AO-SLO images of all S field angles generated in step S432. Select an image. After that, the control unit 130 controls to display the list of the group of the superimposed AO-SLO images selected by the image selection unit 143 on the external display device 400 through the output unit 160.

さらに、画像選択部143は、ステップS460で取得された経時評価領域を含む重ね合わせAO−SLO画像の群の中から、経時解析のための詳細位置合わせを行う画像群(以下、「経時解析対象AO−SLO画像群」と称する)を選択する。この選択は、ユーザが選択することもできるし、アルゴリズムによって画像選択部143が自動選択することも可能である。例えば、ユーザが選択する場合、表示された経時評価領域を含む全重ね合わせAO−SLO画像の群の一覧から、ユーザが撮影日や画質等を考慮して経時解析対象AO−SLO画像群を選択する態様を採る。また、画像選択部143が自動選択する場合、各撮影日ごとに最も画質の高い画像を選択したり、各撮影日ごとに、ステップS460で取得された経時評価領域をより中心に含む画像を基準画像として選択したりする態様を採る。そして、画像選択部143は、選択した経時解析対象AO−SLO画像群を、制御部130を介して、記憶部150に記憶する。 Further, the image selecting unit 143 selects an image group (hereinafter, referred to as “time-dependent analysis target”) from among the group of the superimposed AO-SLO images including the time-dependent evaluation area acquired in step S460, for performing the detailed alignment for the time-dependent analysis. "AO-SLO image group"). This selection can be selected by the user or can be automatically selected by the image selection unit 143 according to an algorithm. For example, when the user makes a selection, the user selects the AO-SLO image group for temporal analysis from the list of all superimposed AO-SLO images including the displayed temporal evaluation region in consideration of the shooting date, image quality, and the like. The mode is adopted. In addition, when the image selection unit 143 automatically selects, an image with the highest image quality is selected for each shooting date, or an image including the temporal evaluation area acquired in step S460 in the center is selected for each shooting date. A mode of selecting as an image is adopted. Then, the image selection unit 143 stores the selected temporal analysis target AO-SLO image group in the storage unit 150 via the control unit 130.

<ステップS480>
続いて、ステップS480において、位置合わせ部141は、ステップS470で選択された経時解析対象AO−SLO画像群間の詳細な位置合わせを行う。この際、位置合わせ部141は、経時解析対象AO−SLO画像群の位置合わせに係る位置情報を生成する。このステップS480における詳細位置合わせは第3の位置合わせに相当する。
<Step S480>
Subsequently, in step S480, the alignment unit 141 performs detailed alignment between the temporal analysis target AO-SLO image groups selected in step S470. At this time, the alignment unit 141 generates position information regarding alignment of the AO-SLO image group for temporal analysis. The detailed alignment in step S480 corresponds to the third alignment.

ここでは、詳細な位置合わせの手法として、ステップS430におけるセット内位置合わせと同様の位相限定相関法を用いた場合について説明する。但し、位置合わせには複数の手法があり、この手法に限定されるものではない。 Here, a case where the phase-only correlation method similar to the in-set registration in step S430 is used as a detailed registration method will be described. However, there are a plurality of methods for alignment, and the method is not limited to this method.

具体的に、ステップS480では、位置合わせ部141は、まず、経時解析対象AO−SLO画像群の中から、基準となる画像(以下、「基準AO−SLO画像」と称する)を選択する。この基準AO−SLO画像の選択は、ユーザが観察したい対象に応じて選択する構成でも良いし、ソフトウェアにより自動で選択する構成としても良い。自動選択の具体例としては、コントラストが高い等、画質が所定の閾値よりも高い画像を選択し、ステップS460で取得された経時評価領域をより中心に含む画像を選択する。 Specifically, in step S480, the alignment unit 141 first selects a reference image (hereinafter, referred to as “reference AO-SLO image”) from the temporal analysis target AO-SLO image group. The reference AO-SLO image may be selected according to the object that the user wants to observe, or may be automatically selected by software. As a specific example of the automatic selection, an image having an image quality higher than a predetermined threshold such as a high contrast is selected, and an image including the temporal evaluation region acquired in step S460 in the center is selected.

次いで、位置合わせ部141は、経時解析対象AO−SLO画像群に含まれる基準AO−SLO画像以外の画像を、基準AO−SLO画像に対して位置合わせする。ここでは、ステップS431のフレーム間位置合わせと同様の方法を用いるが、経時解析対象AO−SLO画像間の画像を調整するための前処理を行う。その理由は、フレーム間位置合わせの場合は1秒間に取得された32フレーム同士の位置合わせのために画像の性質が似ているのに対して、経時解析対象AO−SLO画像群は経時的に取得された重ね合わせ画像であるために画質にばらつきがあるという特徴による。 Next, the alignment unit 141 aligns images other than the reference AO-SLO image included in the temporal analysis target AO-SLO image group with the reference AO-SLO image. Here, the same method as the inter-frame registration in step S431 is used, but pre-processing for adjusting the image between the temporal analysis target AO-SLO images is performed. The reason is that in the case of inter-frame alignment, the properties of the images are similar due to the alignment of the 32 frames acquired in 1 second, whereas the temporal analysis target AO-SLO image group changes with time. This is due to the feature that the image quality varies because it is the acquired superimposed image.

ここでの前処理としては、視細胞観察によく用いられるLOGによるコントラスト調整を行う。より具体的に、各画像の輝度のヒストグラムを求め、その上下0.5%の輝度値をカットした輝度の最高値及び最低値をそれぞれImax及びIminとする。そして、LOGによるコントラスト調整では、各画素の輝度値Iを以下の(2)式のように変更する。 As preprocessing here, contrast adjustment by LOG that is often used for photoreceptor cell observation is performed. More specifically, the luminance histogram of each image is obtained, and the maximum and minimum luminance values obtained by cutting the luminance values of 0.5% above and below the histogram are defined as Imax and Imin, respectively. Then, in the contrast adjustment by LOG, the brightness value I of each pixel is changed as in the following expression (2).

ここで、(2)式に示すIprocessedは、調整後の画素値である。また、(2)式に示すInormは、輝度の最大値が画素の深さ(16bitもしくは8bit等)で許される最大値となるように規格化する定数であり、(3)式のように示されるものである。また、(2)式及び(3)式に示すaは、LOGによるコントラスト調整で用いるパラメータであり、値が小さいほど調整が大きくなる。本実施形態では、aの範囲として適した100〜5000の範囲の中から、5000を選択する。 Here, Iprocessed shown in Expression (2) is the pixel value after adjustment. Further, Inorm shown in the equation (2) is a constant that normalizes the maximum value of the luminance to the maximum value allowed by the pixel depth (16 bits or 8 bits), and is shown as the equation (3). It is what is done. Further, a shown in the equations (2) and (3) is a parameter used in the contrast adjustment by LOG, and the smaller the value, the larger the adjustment. In the present embodiment, 5000 is selected from the range of 100 to 5000 suitable for the range of a.

このような前処理を施した後、位置合わせ部141は、ステップS431と同様の方法で位置合わせを行い、経時解析対象AO−SLO画像群に対して、位置合わせ済み経時解析対象AO−SLO画像群を生成する。また、位置合わせ部141は、詳細位置合わせがうまくいかなかった場合(例えば位相限定相関の相関ピークが閾値以下となる場合等)に、どの段階で失敗したかをエラーフラッグ情報として取得する。そして、位置合わせ部141は、こうして生成した位置合わせ済み経時解析対象AO−SLO画像群及び位置合わせ結果の情報を、制御部130を介して、記憶部150に記憶する。 After performing such pre-processing, the alignment unit 141 performs alignment in the same manner as in step S431, and the aligned temporal analysis target AO-SLO images are subjected to the temporal analysis target AO-SLO image group. Generate a group. Further, when the detailed alignment is not successful (for example, when the correlation peak of the phase-only correlation is less than or equal to the threshold), the alignment unit 141 acquires at what stage the error has occurred as error flag information. Then, the alignment unit 141 stores, in the storage unit 150 via the control unit 130, the information of the alignment-completed temporal analysis target AO-SLO image group and the alignment result generated in this way.

<ステップS490−1>
続いて、ステップS490−1において、領域抽出部144は、ステップS480における詳細な位置合わせの結果得られた位置合わせ済み経時解析対象AO−SLO画像群において共通に含まれる領域である共通領域を抽出する。
<Step S490-1>
Subsequently, in step S490-1, the region extraction unit 144 extracts a common region which is a region commonly included in the aligned temporal analysis target AO-SLO image groups obtained as a result of the detailed alignment in step S480. To do.

<ステップS490−2>
続いて、ステップS490−2において、制御部130は、ステップS480で得られた位置合わせ済み経時解析対象AO−SLO画像群及びその位置合わせ結果の情報とともにステップS490−2で抽出された共通領域を表示装置400に表示する制御を行う。
<Step S490-2>
Subsequently, in step S490-2, the control unit 130 sets the common area extracted in step S490-2 together with the position-adjusted temporal analysis target AO-SLO image group obtained in step S480 and the information of the position alignment result. The control for displaying on the display device 400 is performed.

図7は、本発明の第1の実施形態を示し、位置合わせ済み経時解析対象AO−SLO画像群等の表示例を模式的に示す図である。この図7には、位置合わせ済み経時解析対象AO−SLO画像群711〜714を並べて表示すると同時に、共通領域720が示されている。 FIG. 7 shows the first embodiment of the present invention, and is a diagram schematically showing a display example of a registered temporal analysis target AO-SLO image group and the like. In FIG. 7, the common area 720 is displayed while the aligned temporal analysis target AO-SLO image groups 711 to 714 are displayed side by side.

さらに、詳細位置合わせの段階で取得したエラーフラッグ情報等を表示する領域730が、各画像に付加されている。具体的に、図7には、当該画像が基準AO−SLO画像の場合(「reference」と表示)、詳細位置合わせはできたが基準AO−SLO画像に対して移動量が大きい画像の場合(「large displacement」と表示)が記載される例を示している。 Further, a region 730 for displaying error flag information and the like acquired in the detailed alignment stage is added to each image. Specifically, in FIG. 7, when the image is the reference AO-SLO image (displayed as “reference”), when the detailed alignment has been performed but the movement amount is larger than the reference AO-SLO image ( "Displayed as "large displacement") is described.

ここで、移動量が大きい画像の場合を解析対象から除く理由は、これらの画像を含めると、共通領域720の大きさが極端に小さくなってしまうからである。本実施形態では、画像の中心位置が基準AO−SLO画像の中心から40%以上離れた場合には解析対象外とする。また、ステップS480で取得されたエラーフラッグ情報の中で、画像全体での並行移動までは処理が進むが、それ以降のアフィン変換等の歪み補正部分でエラーとなった画像の場合には、並行移動のみという表示(「shift」と表示)を行っている。これは、この画像は概略の位置はあっているが、視細胞1つ1つのレベルでの位置合わせはできておらず、選択領域内の視細胞密度の比較等は可能であるが、個別の視細胞が回復もしくは消失したか否かを判断するレベルではないことを示している。 The reason for excluding the images having a large movement amount from the analysis target is that the size of the common region 720 becomes extremely small when these images are included. In this embodiment, when the center position of the image is 40% or more away from the center of the reference AO-SLO image, it is excluded from the analysis target. Further, in the error flag information acquired in step S480, the process proceeds up to the parallel movement of the entire image, but in the case of the image in which the distortion correction portion such as the affine transformation after that has an error, the parallel movement is performed. Only the movement is displayed (displayed as “shift”). This is because although this image is roughly aligned, it is not possible to perform alignment at the level of individual photoreceptor cells, and it is possible to compare photoreceptor cell densities within selected areas, but individual It indicates that it is not at the level to judge whether the photoreceptor cells have recovered or disappeared.

制御部130は、こうして得られた位置合わせ済み経時解析対象AO−SLO画像群及びその位置合わせ結果の情報並びに共通領域720を、記憶部150に記憶する制御を行うとともに、出力部160を通じて外部の表示装置400に表示する制御を行う。同時に、出力部160は、取得した情報等をデータベース500に出力して保存する。なお、不図示ではあるが、表示された各AO−SLO画像の近傍には、それぞれの撮影日時等に関する情報が共に表示されている。 The control unit 130 controls the storage unit 150 to store the position-adjusted temporal analysis target AO-SLO image group thus obtained, information on the position alignment result, and the common area 720, and also to output external data through the output unit 160. The control for displaying on the display device 400 is performed. At the same time, the output unit 160 outputs and stores the acquired information and the like in the database 500. Although not shown, information about the date and time of each shooting is also displayed near each displayed AO-SLO image.

ステップS490の処理が終了すると、図4に示すフローチャートの処理が終了する。 When the process of step S490 ends, the process of the flowchart illustrated in FIG. 4 ends.

第1の実施形態に係る画像処理装置100では、経時的に取得したAO−SLO画像を相互に位置合わせして基準となるWF−SLO画像上に重畳させて重畳画像を生成するようにしている。
かかる構成によれば、例えばAO−SLO画像が経時的に繰り返し撮影されている領域を把握することができるため、被検眼の眼底における経時比較を効率良く行うことができる。さらに、例えば、AO−SLO画像が繰り返し撮影されている領域周辺から画像を選択して詳細な位置合わせを行うことにより、多くの画像について経時比較を行うことが可能となる。
In the image processing apparatus 100 according to the first embodiment, the AO-SLO images acquired over time are aligned with each other and superimposed on the reference WF-SLO image to generate a superimposed image. ..
According to such a configuration, for example, it is possible to grasp a region in which the AO-SLO image is repeatedly captured over time, and thus it is possible to efficiently perform temporal comparison on the fundus of the eye to be inspected. Furthermore, for example, by selecting an image from the periphery of the area where the AO-SLO image is repeatedly captured and performing detailed alignment, it is possible to perform a temporal comparison on many images.

(第2の実施形態)
次に、本発明の第2の実施形態について説明する。
(Second embodiment)
Next, a second embodiment of the present invention will be described.

第1の実施形態では、経時的に取得したAO−SLO画像を相互に位置合わせして基準となるWF−SLO画像上に重畳させて重畳画像を生成して表示し、当該重畳画像に基づき撮影されている枚数が多い領域を経時評価領域として取得する方法について説明した。さらに、第1の実施形態では、複数のAO−SLO画像から、経時評価領域を含むAO−SLO画像を選択し、それらの詳細な位置合わせを行って実際に重なる共通領域を抽出して表示する方法についても説明した。 In the first embodiment, the AO-SLO images acquired over time are aligned with each other and superimposed on the reference WF-SLO image to generate and display the superimposed image, and the image is captured based on the superimposed image. The method of acquiring a region with a large number of printed images as a temporal evaluation region has been described. Furthermore, in the first embodiment, an AO-SLO image including a temporal evaluation region is selected from a plurality of AO-SLO images, and detailed alignment of these images is performed to extract and display a common region that actually overlaps. I also explained how.

第2の実施形態では、第1の実施形態においてステップS480の詳細な位置合わせが行われた経時解析対象AO−SLO画像群に対し、各画像の共通領域を抽出して、周期構造の評価及び視細胞検出等の解析を行う方法について説明する。 In the second embodiment, the common area of each image is extracted from the temporal analysis target AO-SLO image group for which the detailed alignment of step S480 in the first embodiment is performed, and the periodic structure evaluation and A method for performing analysis such as detection of photoreceptor cells will be described.

第2の実施形態に係る眼科装置の概略構成は、図1に示す第1の実施形態に係る眼科装置10の概略構成と同様であるため、その説明は省略する。 The schematic configuration of the ophthalmologic apparatus according to the second embodiment is the same as the schematic configuration of the ophthalmologic apparatus 10 according to the first embodiment shown in FIG. 1, so description thereof will be omitted.

[画像処理装置100の処理手順]
図8は、本発明の第2の実施形態に係る画像処理装置100による画像処理方法の処理手順の一例を示すフローチャートである。ここで、図8に示すフローチャートの「開始」の段階で、図4に示すステップS410〜S490−1までの処理が終了しているものとする。
[Processing Procedure of Image Processing Device 100]
FIG. 8 is a flowchart showing an example of a processing procedure of an image processing method by the image processing apparatus 100 according to the second embodiment of the present invention. Here, it is assumed that the processes of steps S410 to S490-1 shown in FIG. 4 have been completed at the “start” stage of the flowchart shown in FIG.

<ステップS810>
図4に示すステップS410〜S490−1の処理を経た後、ステップS810において、解析部145は、まず、ステップS480で得られた位置合わせ済み経時解析対象AO−SLO画像群と、ステップS490−1で抽出された共通領域の情報をデータベース500から取得する。そして、解析部145は、各位置合わせ済み経時解析対象AO−SLO画像から、共通領域として抽出された領域の空間周波数変換画像を生成する。
<Step S810>
After performing the processes of steps S410 to S490-1 shown in FIG. 4, in step S810, the analysis unit 145 first sets the aligned temporal analysis target AO-SLO image group obtained in step S480 and step S490-1. The information on the common area extracted in step 3 is acquired from the database 500. Then, the analysis unit 145 generates a spatial frequency conversion image of the region extracted as the common region from each of the aligned temporal analysis target AO-SLO images.

具体的には、まず、共通領域の幅及び高さよりも大きく、2のN乗となる整数を画像サイズとする正方形の画像領域を設定し、その中心に上記抽出領域を置く。これを空間周波数変換用抽出画像と呼び、ここではその大きさを512ピクセル×512ピクセルとする。このとき、共通領域の全画素値の平均値を求め、その平均値を共通領域の各画素値から引き算し、共通領域に相当しない画素値は0とする。さらに、共通領域の境界部分の不連続性による影響を防ぐため、窓関数による処理を行う。ここでは、大きさ8ピクセルのHann窓を用いる。こうして生成した各周波数変換用抽出画像にFFT処理(高速フーリエ変換)を行い、各画素値をFFTの振幅の大きさとしたパワースペクトル画像を生成する。ここで、パワースペクトル画像は、視細胞の周期を反映したリング状の構造をもつことが知られているため、パワースペクトル画像からリングの半径を求め、そこから視細胞の周期を概算する。リングの半径を求める手法は複数存在するが、ここではパワースペクトル画像の画像中心を原点とし、角度方向にパワースペクトル画像の画素値を積算し、動径方向で前記積算値が最も大きな値となる箇所を、リングの半径とする。 Specifically, first, a square image area having an image size that is an integer that is the Nth power of 2 and is larger than the width and height of the common area is set, and the extraction area is placed at the center thereof. This is called a spatial frequency conversion extracted image, and its size is 512 pixels×512 pixels here. At this time, the average value of all the pixel values in the common area is calculated, and the average value is subtracted from each pixel value in the common area, and the pixel value not corresponding to the common area is set to 0. Furthermore, in order to prevent the influence of discontinuity at the boundary of the common area, processing with a window function is performed. Here, a Hann window having a size of 8 pixels is used. An FFT process (fast Fourier transform) is performed on each of the frequency conversion extracted images thus generated to generate a power spectrum image in which each pixel value is the magnitude of the FFT amplitude. Here, since the power spectrum image is known to have a ring-shaped structure that reflects the cycle of photoreceptor cells, the radius of the ring is obtained from the power spectrum image, and the cycle of photoreceptor cells is roughly estimated from the radius of the ring. There are multiple methods to obtain the radius of the ring, but here, the image center of the power spectrum image is set as the origin, the pixel values of the power spectrum image are integrated in the angular direction, and the integrated value becomes the largest value in the radial direction. Let the location be the radius of the ring.

パワースペクトル画像の各画素値の値は、対応する方向の視細胞の周期の構造がどの程度の強度で存在するかを示しているが、ここでは視細胞の配置に関して特定の方向を考慮しないため、方向に関する角度成分を積算し、周期構造の大きさのみに着眼している。上述した方法により求めたパワースペクトル画像上のリング半径をrとすると、このときの視細胞間距離Lは、以下の(4)式に示すように概算できる。 The value of each pixel value in the power spectrum image shows how strong the structure of the cycle of photoreceptor cells in the corresponding direction is, but here, because the direction of photoreceptor cells is not considered in a particular direction. , The angle components related to the direction are integrated, and attention is paid only to the size of the periodic structure. When the ring radius on the power spectrum image obtained by the above-described method is r, the intercellular distance L at this time can be roughly calculated as shown in the following formula (4).

ここで、パワースペクトル画像のサイズ(image_size)は上述したように512ピクセル×512ピクセルであり、ピクセルのサイズ(pixel_size)はS画角のAO−SLO画像の場合に0.85μ/ピクセルである。 Here, the size of the power spectrum image (image_size) is 512 pixels×512 pixels as described above, and the size of the pixel (pixel_size) is 0.85 μ/pixel in the case of the AO-SLO image with the S angle of view.

そして、全ての位置合わせ済み経時解析対象AO−SLO画像の共通領域が同じ画像である場合には、視細胞間距離Lは全てのパワースペクトル画像で同じとなるが、実際には画像ごとに視細胞間距離Lの値は異なるものとなる。これは、疾病の進行により視細胞密度が変化した等の臨床的変化が正しく反映されている場合と、位置合わせの失敗により等しい領域が選択されていない場合や、画質の劣化やフォーカス位置のずれにより正しい画像が取得できていない場合に分けられる。但し、疾病の進行により視細胞の消失が起こった場合でも、視細胞間距離Lが均一に大きくなるように再配置されるのではなく、影響を受けた視細胞のみが消失しそれ以外の視細胞には大きな変化はみられない場合が多いことが知られている。そのため、視細胞間距離Lの値が大きく変化している画像にはなんらかの課題(位置合わせ失敗や撮影時の失敗等)を示唆する場合が多い。よって、視細胞間距離Lの値、もしくは視細胞間距離Lの値を用いて算出した指標等をユーザに提示することで、解析結果の妥当性をユーザに示すことが可能となる。 When the common region of all the aligned temporal analysis target AO-SLO images is the same image, the intercellular distance L is the same for all power spectrum images, but in reality The value of the intercellular distance L is different. This is because clinical changes such as changes in photoreceptor density due to disease progression are correctly reflected, when equal areas are not selected due to misalignment, image quality deterioration and focus position shift. Therefore, it is divided into cases where a correct image cannot be obtained. However, even when the photoreceptor cells disappear due to the progress of the disease, the photoreceptor cells are not rearranged so that the distance L between the photoreceptor cells is uniformly increased, but only the affected photoreceptor cells disappear and other photoreceptor cells disappear. It is known that cells often do not show significant changes. Therefore, an image in which the value of the distance L between photoreceptor cells is greatly changed often indicates some problem (misalignment, failure at the time of photographing, etc.). Therefore, by presenting the value of the distance L between photoreceptors or the index calculated using the value of the distance L between photoreceptors to the user, the validity of the analysis result can be shown to the user.

そして、制御部130は、解析部145でこのようにして取得した共通領域の視細胞間距離Lの情報を、記憶部150に記憶する制御を行うとともに、出力部160を通じて外部の表示装置400に表示する制御を行う。同時に、出力部160は、視細胞間距離Lの情報をデータベース500に出力して保存する。ここで、視細胞間距離Lもしくは視細胞間距離Lに基づく指標のユーザへの提示の仕方は複数考えられるが、例えば図7のコメント領域(図7の730)への提示等が適切である。 Then, the control unit 130 controls the storage unit 150 to store the information on the inter-visual cell distance L of the common region acquired by the analysis unit 145 in this way, and also displays the information on the external display device 400 via the output unit 160. Control to display. At the same time, the output unit 160 outputs and stores the information on the distance L between photoreceptors to the database 500. Here, there can be a plurality of ways of presenting the distance L between photoreceptors or the index based on the distance L between photoreceptors to the user. For example, presentation to the comment area (730 in FIG. 7) in FIG. 7 is suitable. ..

<ステップS820>
続いて、ステップS820において、解析部145は、ステップS810で取得した、各位置合わせ済み経時解析対象AO−SLO画像の共通領域に対応する視細胞間距離Lのうち、基準AO−SLO画像に対応する視細胞間距離に基づき、視細胞検出を行う。ここで、視細胞検出の方法は複数知られているが、例えば画像の輝度値の局所的最大値を検出する方法が知られている。この方法では、視細胞間距離に相当する大きさよりも近い距離に検出された2点は融合処理によって合体させられる。このときのパラメータとして、視細胞間距離Lを用いることが考えられる。但し、視細胞の配置にはゆらぎがあるため、視細胞間距離L以下の距離の2点全てを融合するとほとんどの検出点が融合してしまうため、本実施形態では0.6L以下の2点を融合するものとする。そして、制御部130は、解析部145においてこのようにして取得された、各位置合わせ済み経時解析対象AO−SLO画像の共通領域で検出された検出点の座標情報を、記憶部150に記憶する制御を行う。
<Step S820>
Subsequently, in step S820, the analysis unit 145 corresponds to the reference AO-SLO image among the inter photoreceptor distances L corresponding to the common region of each aligned temporal analysis target AO-SLO image acquired in step S810. The photoreceptor cells are detected based on the distance between the photoreceptor cells. Here, a plurality of methods for detecting photoreceptor cells are known, for example, a method for detecting a local maximum value of the brightness value of an image is known. In this method, two points detected at a distance closer than the size corresponding to the distance between photoreceptors are merged by fusion processing. As a parameter at this time, it is possible to use the distance L between photoreceptors. However, since there are fluctuations in the arrangement of photoreceptor cells, most of the detection points will be fused if all two points with a distance L between photoreceptor cells or less are fused, so in the present embodiment, two points of 0.6L or less are fused. Shall be fused. Then, the control unit 130 stores, in the storage unit 150, the coordinate information of the detection points detected in the common region of each aligned temporal analysis target AO-SLO image acquired in this way by the analysis unit 145. Take control.

<ステップS830>
続いて、ステップS830において、解析部145は、ステップS820で取得した検出点の座標情報に基づき、ボロノイ解析等を行い、視細胞の配置に関する指標を抽出する。そして、制御部130は、解析部145においてこのようにして取得された視細胞の配置に関する指標情報を、記憶部150に記憶する制御を行う。
<Step S830>
Subsequently, in step S830, the analysis unit 145 performs Voronoi analysis or the like based on the coordinate information of the detection points acquired in step S820, and extracts an index regarding the arrangement of photoreceptor cells. Then, the control unit 130 controls the storage unit 150 to store the index information regarding the arrangement of the photoreceptor cells thus obtained by the analysis unit 145.

<ステップS840>
続いて、ステップS840において、制御部130は、ステップS820で取得した視細胞の検出結果や、ステップS830で取得した解析結果を、出力部160を通じて外部の表示装置400に表示する制御を行う。この際、制御部130は、各位置合わせ済み経時解析対象AO−SLO画像の共通領域間で、経時的な解析結果の差を比較可能となるように比較表示する制御を行う。
<Step S840>
Subsequently, in step S840, the control unit 130 controls to display the detection result of the photoreceptor cells acquired in step S820 and the analysis result acquired in step S830 on the external display device 400 through the output unit 160. At this time, the control unit 130 performs control to perform comparative display so as to make it possible to compare the difference in the analysis results over time between the common areas of the aligned temporal analysis target AO-SLO images.

ここで、解析結果の比較表示は、共通領域全域での比較結果を表示することもできるし、共通領域内でユーザが選択した選択領域においてのみ比較表示することも可能である。具体的には、選択された領域内で算出した視細胞密度やボロノイの六角形率等の指標の経時的変化を、一覧表もしくはグラフ等でユーザに比較表示することができる。また、選択領域内の検出点が、異なる日時に取得された画像内での検出点と一致するか否かを、表示する検出点の色を変えることで示すこともできる。 Here, as the comparison display of the analysis result, it is possible to display the comparison result in the entire common area or only in the selected area selected by the user in the common area. Specifically, it is possible to compare and display changes over time in indices such as photoreceptor cell density and Voronoi's hexagonal ratio calculated in the selected region with a list or graph. It is also possible to indicate whether or not the detection points in the selected area match the detection points in the images acquired at different dates and times by changing the color of the detection points to be displayed.

さらに、ボロノイ解析の結果取得された指標を比較することで表示を変えることもできる。例えば、最近接距離(NND)の値の変化率に応じて検出点の色やボロノイ領域の色を変えて比較表示したり、ボロノイ領域の面積の差や頂点数の差、偏心率等の形状を示す指標の差の変化に応じて比較表示したりすることが可能となる。また、密度の等高線表示に替えて、密度の差やボロノイ領域のヘキサゴン率等の差を等高線表示することもできる。この場合に、変化の少ない領域と変化の大きな領域を明示することで、疾病がどの領域で進行しているかを直観的に把握することが可能となる。 Furthermore, the display can be changed by comparing the indexes acquired as a result of the Voronoi analysis. For example, the color of the detection point or the color of the Voronoi region is changed according to the rate of change of the value of the closest distance (NND) for comparison display, or the difference in the area of the Voronoi region, the difference in the number of vertices, the eccentricity, or the like It is possible to compare and display according to the change in the difference in the index indicating. Further, instead of the contour contour display of the density, it is also possible to display the contour difference of the density or the hexagon ratio of the Voronoi region. In this case, it is possible to intuitively understand in which region the disease progresses by clearly indicating the region where the change is small and the region where the change is large.

ステップS840の処理が終了すると、図8に示すフローチャートの処理が終了する。 When the process of step S840 ends, the process of the flowchart illustrated in FIG. 8 ends.

第2の実施形態によれば、上述した第1の実施形態における効果に加えて、以下の効果を奏する。即ち、経時的に取得した画像を用いて疾病の進行等の状態を比較したい場合に、詳細に位置合わせを行った同一撮影領域間で、視細胞の状態を反映する解析指標を取得して比較し、その比較結果が一覧できるように表示することが可能となる。 According to the second embodiment, the following effects are obtained in addition to the effects of the first embodiment described above. In other words, if you want to compare the state of disease progression etc. using images acquired over time, you can obtain and compare analysis indices that reflect the state of photoreceptor cells between the same imaging areas that have been aligned in detail. However, the comparison results can be displayed so that they can be listed.

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
このプログラム及び当該プログラムを記憶したコンピュータ読み取り可能な記憶媒体は、本発明に含まれる。
(Other embodiments)
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program. It can also be realized by the processing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
The program and a computer-readable storage medium storing the program are included in the present invention.

なお、上述した本発明の実施形態は、いずれも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。 It should be noted that the above-described embodiments of the present invention are merely examples of specific embodiments for carrying out the present invention, and the technical scope of the present invention should not be limitedly interpreted by these. Is. That is, the present invention can be implemented in various forms without departing from the technical idea or the main features thereof.

10 眼科装置、100 画像処理装置、110 画像取得部、120 情報取得部、130 制御部、140 画像処理部、141 位置合わせ部、142 重畳部、143 画像選択部、144 領域抽出部、145 解析部、150 記憶部、160 出力部、200 撮影装置、300 情報入力装置、400 表示装置、500 データベース 10 ophthalmologic apparatus, 100 image processing apparatus, 110 image acquisition section, 120 information acquisition section, 130 control section, 140 image processing section, 141 alignment section, 142 superposition section, 143 image selection section, 144 area extraction section, 145 analysis section , 150 storage unit, 160 output unit, 200 photographing device, 300 information input device, 400 display device, 500 database

本発明の画像処理装置は、被検眼の眼底における所定の大きさの領域を撮影することにより得られた第1の画像と、前記被検眼の眼底における領域であって前記所定の大きさの領域よりも狭い領域を撮影することにより得られた第2の画像とを、撮影時期に基づくセットごとに対応付けて取得し、記憶手段に記憶する画像取得手段と、前記記憶手段に記憶された同一の前記セットを構成する前記第1の画像と前記第2の画像との位置合わせである第1の位置合わせを行って前記第2の画像の前記第1の画像上の位置情報と、前記記憶手段に記憶された異なる複数の前記セットにそれぞれ含まれる前記第1の画像の位置合わせである第2の位置合わせを行って基準となる前記第1の画像に対する位置合わせ対象となる前記第1の画像の位置合わせ情を生成する位置合わせ手段と、前記位置合わせ手段で生成された前記位置情報と前記位置合わせ情報とに基づいて、先に取得された前記セットである第1のセットに含まれる前記第2の画像と前記第1のセットよりも後に取得された前記セットである第2のセットに含まれる前記第2の画像との位置合わせを行い、前記第1のセットに含まれる前記第2の画像と前記第2のセットに含まれる前記第2の画像の重畳画像を生成する重畳手段と、を有する。
また、本発明は、上述した画像処理装置による画像処理方法、及び、当該画像処理方法をコンピュータに実行させるためのプログラムを含む。
The image processing apparatus of the present invention is a first image obtained by photographing an area of a predetermined size on the fundus of the eye to be inspected, and an area of the eye fundus of the eye to be inspected, the area having the predetermined size. A second image obtained by photographing a narrower area is acquired in association with each set based on the photographing time and stored in the storage means, and the same image storage means stored in the storage means. and position information on the first image of the second image the performing the set with the first images constituting a first alignment is aligned with the second image of the storage wherein the alignment target with respect to the first image as a reference by performing a second, aligning a registration between the first image included in each of the stored plurality of different sets means the based on the alignment means for generating a position fit allowed information of the first image, and the generated positional information by said alignment means and said alignment information, which is the set that was previously acquired first The second image included in the first set and the second image included in the second set, which is the set acquired after the first set, are aligned. having a superimposition means for generating a superimposed image of the second image included in said second image said second sets included in the.
The present invention also includes an image processing method by the above-described image processing apparatus, and a program for causing a computer to execute the image processing method.

Claims (17)

被検眼の眼底における所定の大きさの領域を撮影することにより得られた第1の画像と、前記被検眼の眼底における領域であって前記所定の大きさの領域よりも狭い領域を撮影することにより得られた第2の画像とを、撮影時期に基づくセットごとに対応付けて取得する画像取得手段と、
同一の前記セットを構成する前記第1の画像と前記第2の画像との位置合わせである第1の位置合わせと、異なる複数の前記セットに含まれる前記第1の画像のそれぞれの位置合わせである第2の位置合わせとを行って、前記第1の位置合わせ及び前記第2の位置合わせに係る位置情報を生成する位置合わせ手段と、
前記位置合わせ手段で生成された位置情報に基づいて、先に取得された前記セットである第1のセットに含まれる前記第2の画像と前記第1のセットよりも後に取得された前記セットである第2のセットに含まれる前記第2の画像とを、前記第1のセットに含まれる前記第1の画像または前記第2のセットに含まれる前記第1の画像に重畳させて、重畳画像を生成する重畳手段と、
を有することを特徴とする画像処理装置。
A first image obtained by photographing an area of a predetermined size in the fundus of the eye to be inspected and an area of the fundus of the eye to be inspected which is narrower than the area of the predetermined size. And an image acquisition unit that acquires the second image obtained by
A first alignment, which is alignment of the first image and the second image forming the same set, and an alignment of each of the first images included in a plurality of different sets. Alignment means for performing a certain second alignment to generate position information relating to the first alignment and the second alignment;
On the basis of the position information generated by the position adjusting means, the second image included in the first set, which is the previously acquired set, and the set acquired after the first set, The second image included in a certain second set is superimposed on the first image included in the first set or the first image included in the second set, and a superimposed image is obtained. Superimposing means for generating
An image processing apparatus comprising:
前記画像取得手段は、前記セットごとに複数の前記第2の画像を取得するものであり、
前記重畳画像は、前記第1のセットに含まれる前記第2の画像と前記第2のセットに含まれる前記第2の画像との重なり枚数を反映した画素値を持つことを特徴とする請求項1に記載の画像処理装置。
The image acquisition means acquires a plurality of the second images for each of the sets,
The superposed image has a pixel value that reflects the number of overlapping images of the second image included in the first set and the second image included in the second set. 1. The image processing device according to 1.
前記画像取得手段は、前記セットごとに複数の前記第2の画像を取得するものであり、
前記重畳画像は、前記第1のセットに含まれる前記第2の画像と前記第2のセットに含まれる前記第2の画像との、各セットごとの重なり枚数を反映した画素値を持つことを特徴とする請求項1に記載の画像処理装置。
The image acquisition means acquires a plurality of the second images for each of the sets,
The superimposed image has a pixel value that reflects the number of overlaps of each of the second image included in the first set and the second image included in the second set. The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
前記重畳画像の中から、経時評価を行う領域である経時評価領域を取得する領域取得手段と、
前記経時評価領域を含む前記第2の画像の群の中から、詳細な位置合わせを行う前記第2の画像の群を選択する画像選択手段と、
前記位置合わせ手段は、前記画像選択手段で選択された前記第2の画像の群における詳細な位置合わせである第3の位置合わせを更に行うものであり、前記第3の位置合わせが行われた前記第2の画像の群において共通に含まれる領域である共通領域を抽出する領域抽出手段と、
前記第3の位置合わせが行われた前記第2の画像の群とともに、前記共通領域と前記第3の位置合わせの結果とを表示装置に表示する制御を行う制御手段と、
を更に有することを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。
From the superimposed image, a region acquisition unit that acquires a temporal evaluation region that is a region for performing temporal evaluation,
Image selecting means for selecting the second image group for which detailed alignment is to be performed, from the second image group including the temporal evaluation region;
The alignment means further performs a third alignment which is a detailed alignment in the group of the second images selected by the image selection means, and the third alignment is performed. Area extracting means for extracting a common area which is an area commonly included in the second image group;
Control means for controlling the display of the common area and the result of the third alignment together with the group of the second images on which the third alignment has been performed;
The image processing apparatus according to any one of claims 1 to 3, further comprising:
前記領域取得手段は、前記重畳画像において、前記第2の画像の重なり枚数が最も多い領域を前記経時評価領域として取得することを特徴とする請求項4に記載の画像処理装置。 The image processing apparatus according to claim 4, wherein the area acquisition unit acquires, in the superimposed image, an area in which the number of overlapping second images is the largest, as the temporal evaluation area. 前記領域取得手段は、前記重畳画像において、異なる前記セットに含まれる前記第2の画像の重なり枚数が最も多い領域を前記経時評価領域として取得することを特徴とする請求項4に記載の画像処理装置。 The image processing according to claim 4, wherein the area acquisition unit acquires, as the temporal evaluation area, an area in the superimposed image in which the number of overlapping second images included in different sets is largest. apparatus. 前記領域取得手段は、前記重畳画像において、画質を考慮した前記第2の画像の重なり枚数が最も多い領域を前記経時評価領域として取得することを特徴とする請求項4に記載の画像処理装置。 The image processing apparatus according to claim 4, wherein the area acquisition unit acquires, in the superimposed image, an area in which the number of overlapping second images in consideration of image quality is the largest, as the temporal evaluation area. 前記位置合わせ手段は、前記第3の位置合わせを行う際に、前記画像選択手段で選択された前記第2の画像の群の中から、前記経時評価領域をより中心に含む第2の画像を基準画像として選択することを特徴とする請求項4乃至7のいずれか1項に記載の画像処理装置。 The alignment means, when performing the third alignment, selects a second image including the temporal evaluation region in the center from the group of the second images selected by the image selection means. The image processing apparatus according to claim 4, wherein the image processing apparatus is selected as a reference image. 前記重畳画像の中から、経時評価を行う領域である経時評価領域を取得する領域取得手段と、
前記経時評価領域を含む前記第2の画像の群の中から、詳細な位置合わせを行う前記第2の画像の群を選択する画像選択手段と、
前記位置合わせ手段は、前記画像選択手段で選択された前記第2の画像の群における詳細な位置合わせである第3の位置合わせを更に行うものであり、前記第3の位置合わせが行われた前記第2の画像の群において共通に含まれる領域である共通領域を抽出する領域抽出手段と、
前記共通領域について前記被検眼の視細胞を解析する解析手段と、
前記解析手段による解析の結果を表示装置に表示する制御を行う制御手段と、
を更に有することを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。
From the superimposed image, a region acquisition unit that acquires a temporal evaluation region that is a region for performing temporal evaluation,
Image selecting means for selecting the second image group for which detailed alignment is to be performed, from the second image group including the temporal evaluation region;
The alignment means further performs a third alignment which is a detailed alignment in the group of the second images selected by the image selection means, and the third alignment is performed. Area extracting means for extracting a common area which is an area commonly included in the second image group;
Analyzing means for analyzing photoreceptor cells of the eye to be examined for the common region,
Control means for controlling the display of the result of the analysis by the analysis means,
The image processing apparatus according to any one of claims 1 to 3, further comprising:
前記解析手段は、前記視細胞を解析する際に、前記共通領域について前記視細胞の周期構造に基づく指標を取得し、前記指標に基づいて前記視細胞の検出と前記視細胞の配置を解析することを特徴とする請求項9に記載の画像処理装置。 The analyzing means, when analyzing the photoreceptor cells, obtains an index based on the periodic structure of the photoreceptor cells with respect to the common region, and analyzes the detection of the photoreceptor cells and the arrangement of the photoreceptor cells based on the indicator. The image processing device according to claim 9, wherein 前記制御手段は、前記第3の位置合わせが行われた前記第2の画像の群における各第2の画像の前記共通領域の間で、前記解析手段による解析の結果を前記表示装置に比較表示する制御を行うことを特徴とする請求項9または10に記載の画像処理装置。 The control means compares and displays the analysis result by the analysis means on the display device between the common regions of the respective second images in the group of the second images on which the third alignment has been performed. The image processing apparatus according to claim 9 or 10, wherein the image processing apparatus controls the image processing to be performed. 前記制御手段は、前記解析手段による前記視細胞の検出結果の差を前記比較表示する制御を行うことを特徴とする請求項11に記載の画像処理装置。 The image processing apparatus according to claim 11, wherein the control unit performs control to display the difference between the detection results of the photoreceptor cells by the analysis unit in the comparative display. 前記解析手段は、ボロノイ解析を用いて前記視細胞の配置を解析するものであり、
前記制御手段は、前記ボロノイ解析の結果の差を前記比較表示する制御を行うことを特徴とする請求項11に記載の画像処理装置。
The analysis means is for analyzing the arrangement of the photoreceptor cells using Voronoi analysis,
The image processing apparatus according to claim 11, wherein the control unit controls to display the difference between the results of the Voronoi analysis in the comparative display.
前記ボロノイ解析の結果の差は、前記ボロノイ解析による各検出点における最近接距離の差、前記ボロノイ解析によるボロノイ領域の頂点数の差、前記ボロノイ領域の面積の差、及び、前記ボロノイ領域の形状の差のうちの少なくともいずれかであることを特徴とする請求項13に記載の画像処理装置。 The difference in the result of the Voronoi analysis is the difference in the closest distance at each detection point by the Voronoi analysis, the difference in the number of vertices of the Voronoi region by the Voronoi analysis, the difference in the area of the Voronoi region, and the shape of the Voronoi region. 14. The image processing apparatus according to claim 13, wherein the image processing apparatus is at least one of the following differences. 前記制御手段は、前記解析手段による密度の差またはヘキサゴン率の差を前記表示装置に等高線表示させることにより前記比較表示する制御を行うことを特徴とする請求項11に記載の画像処理装置。 The image processing apparatus according to claim 11, wherein the control unit controls the comparison display by displaying the difference in the density or the difference in the hexagon ratio by the analyzing unit on the display device by contour lines. 被検眼の眼底における所定の大きさの領域を撮影することにより得られた第1の画像と、前記被検眼の眼底における領域であって前記所定の大きさの領域よりも狭い領域を撮影することにより得られた第2の画像とを、撮影時期に基づくセットごとに対応付けて取得する画像取得ステップと、
同一の前記セットを構成する前記第1の画像と前記第2の画像との位置合わせである第1の位置合わせと、異なる複数の前記セットに含まれる前記第1の画像のそれぞれの位置合わせである第2の位置合わせとを行って、前記第1の位置合わせ及び前記第2の位置合わせに係る位置情報を生成する位置合わせステップと、
前記位置合わせステップで生成された位置情報に基づいて、先に取得された前記セットである第1のセットに含まれる前記第2の画像と前記第1のセットよりも後に取得された前記セットである第2のセットに含まれる前記第2の画像とを、前記第1のセットに含まれる前記第1の画像または前記第2のセットに含まれる前記第1の画像に重畳させて、重畳画像を生成する重畳ステップと、
を有することを特徴とする画像処理方法。
A first image obtained by photographing an area of a predetermined size in the fundus of the eye to be inspected and an area of the fundus of the eye to be inspected which is narrower than the area of the predetermined size. An image acquisition step of acquiring the second image obtained by
A first alignment, which is alignment of the first image and the second image forming the same set, and an alignment of each of the first images included in a plurality of different sets. An alignment step of performing a certain second alignment to generate position information relating to the first alignment and the second alignment;
On the basis of the position information generated in the positioning step, the second image included in the first set, which is the previously acquired set, and the set acquired after the first set, The second image included in a certain second set is superimposed on the first image included in the first set or the first image included in the second set, and a superimposed image is obtained. A superposition step for generating
An image processing method comprising:
請求項16に記載の画像処理方法における各ステップをコンピュータに実行させるためのプログラム。 A program for causing a computer to execute each step in the image processing method according to claim 16.
JP2020079364A 2020-04-28 2020-04-28 Image processing apparatus, image processing method and program Pending JP2020124569A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020079364A JP2020124569A (en) 2020-04-28 2020-04-28 Image processing apparatus, image processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020079364A JP2020124569A (en) 2020-04-28 2020-04-28 Image processing apparatus, image processing method and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2015241565A Division JP2017104343A (en) 2015-12-10 2015-12-10 Image processing apparatus, image processing method and program

Publications (1)

Publication Number Publication Date
JP2020124569A true JP2020124569A (en) 2020-08-20

Family

ID=72084551

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020079364A Pending JP2020124569A (en) 2020-04-28 2020-04-28 Image processing apparatus, image processing method and program

Country Status (1)

Country Link
JP (1) JP2020124569A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118573818A (en) * 2024-07-31 2024-08-30 贵州装备制造职业学院 Tunnel communication monitoring system based on cloud platform

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012016620A (en) * 2011-10-24 2012-01-26 Topcon Corp Fundus observation device
JP2014128367A (en) * 2012-12-28 2014-07-10 Canon Inc Image processor
JP2017104343A (en) * 2015-12-10 2017-06-15 キヤノン株式会社 Image processing apparatus, image processing method and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012016620A (en) * 2011-10-24 2012-01-26 Topcon Corp Fundus observation device
JP2014128367A (en) * 2012-12-28 2014-07-10 Canon Inc Image processor
JP2017104343A (en) * 2015-12-10 2017-06-15 キヤノン株式会社 Image processing apparatus, image processing method and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118573818A (en) * 2024-07-31 2024-08-30 贵州装备制造职业学院 Tunnel communication monitoring system based on cloud platform
CN118573818B (en) * 2024-07-31 2024-10-11 贵州装备制造职业学院 Tunnel communication monitoring system based on cloud platform

Similar Documents

Publication Publication Date Title
JP5297415B2 (en) Ophthalmic device and ophthalmic method
JP2017104343A (en) Image processing apparatus, image processing method and program
US9619874B2 (en) Image processing apparatus and image processing method
JP5820154B2 (en) Ophthalmic apparatus, ophthalmic system, and storage medium
JP6115007B2 (en) Ophthalmic image processing apparatus and program
JP5404358B2 (en) Image processing apparatus, image processing method, and program
JP5847510B2 (en) Image processing apparatus and image processing method
JP6207225B2 (en) Image processing apparatus and image processing method
JP6128841B2 (en) Image processing device
JP2017046976A (en) Ophthalmic imaging apparatus and ophthalmic imaging program
JP5998493B2 (en) Ophthalmic image processing apparatus and program
JP6241091B2 (en) Image processing apparatus and image processing program
JP2020124569A (en) Image processing apparatus, image processing method and program
JP6187751B2 (en) Image processing program
JP6419249B2 (en) Image processing apparatus, image processing method, and image processing program
JP6305502B2 (en) Ophthalmic device and method of operating an ophthalmic device
JP6061975B2 (en) Ophthalmic apparatus, method of operating ophthalmic apparatus, and program
US20210030269A1 (en) Post-processing method to improve lso-based tracking in oct
JP5726229B2 (en) Ophthalmic device and ophthalmic method
JP6410498B2 (en) Ophthalmic apparatus and control method thereof
JP2014014725A (en) Image processing apparatus, image processing method, and program
JP2018202237A (en) Image processing device and method for controlling the same
JP6319615B2 (en) Image processing program
JP2016049183A (en) Ophthalmologic apparatus and control method thereof

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200525

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200525

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210423

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210518

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20211130