JP7560300B2 - Slit Lamp Microscope System - Google Patents

Slit Lamp Microscope System Download PDF

Info

Publication number
JP7560300B2
JP7560300B2 JP2020154222A JP2020154222A JP7560300B2 JP 7560300 B2 JP7560300 B2 JP 7560300B2 JP 2020154222 A JP2020154222 A JP 2020154222A JP 2020154222 A JP2020154222 A JP 2020154222A JP 7560300 B2 JP7560300 B2 JP 7560300B2
Authority
JP
Japan
Prior art keywords
image
unit
slit lamp
lamp microscope
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020154222A
Other languages
Japanese (ja)
Other versions
JP2022048413A (en
Inventor
央 塚田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Topcon Corp
Original Assignee
Topcon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Topcon Corp filed Critical Topcon Corp
Priority to JP2020154222A priority Critical patent/JP7560300B2/en
Publication of JP2022048413A publication Critical patent/JP2022048413A/en
Application granted granted Critical
Publication of JP7560300B2 publication Critical patent/JP7560300B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/13Ophthalmic microscopes
    • A61B3/135Slit-lamp microscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0025Operational features thereof characterised by electronic signal processing, e.g. eye models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Surgery (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Ophthalmology & Optometry (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Signal Processing (AREA)
  • Eye Examination Apparatus (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Description

本発明は、スリットランプ顕微鏡システムに関する。 The present invention relates to a slit lamp microscope system.

眼科分野において画像診断は重要な位置を占める。画像診断には、様々な眼科撮影装置が用いられる。眼科撮影装置の種類には、スリットランプ顕微鏡、眼底カメラ、走査型レーザー検眼鏡(SLO)、光干渉断層計(OCT)などがある。 Diagnostic imaging plays an important role in the field of ophthalmology. A variety of ophthalmic imaging devices are used for diagnostic imaging. Types of ophthalmic imaging devices include slit lamp microscopes, fundus cameras, scanning laser ophthalmoscopes (SLO), and optical coherence tomography (OCT).

これら様々な眼科装置のうち最も広く且つ頻繁に使用される装置がスリットランプ顕微鏡である。スリットランプ顕微鏡は、スリット光で被検眼を照明し、照明された断面を斜方や側方から顕微鏡で観察したり撮影したりするために使用される(例えば、特許文献1及び2を参照)。 Of these various ophthalmic devices, the most widely and frequently used is the slit lamp microscope. Slit lamp microscopes are used to illuminate the subject's eye with a slit of light, and to observe and photograph the illuminated cross-section from an oblique or lateral angle using a microscope (see, for example, Patent Documents 1 and 2).

スリットランプ顕微鏡の主な用途の1つに前眼部観察がある。前眼部観察において、医師は、スリット光による照明野やフォーカス位置を移動させつつ前眼部全体を観察して異常の有無を判断する。また、コンタクトレンズのフィッティング状態の確認など、視力補正器具の処方において、スリットランプ顕微鏡が用いられることもある。更に、オプトメトリスト、コメディカル、眼鏡店の店員のような医師以外の者が、眼疾患のスクリーニングやフォローアップ(経過観察)などの目的でスリットランプ顕微鏡を用いることもある。 One of the main uses of slit lamp microscopes is for observing the anterior segment of the eye. In this case, doctors observe the entire anterior segment while moving the illumination field and focus position using slit light to determine whether there are any abnormalities. Slit lamp microscopes are also used when prescribing vision correction devices, such as checking the fitting of contact lenses. Furthermore, slit lamp microscopes are also used by people other than doctors, such as optometrists, paramedical staff, and eyeglass store clerks, for the purpose of screening for eye diseases and follow-up (progression observation).

また、近年の情報通信技術の進歩を受けて、遠隔医療に関する研究開発が発展を見せている。遠隔医療とは、インターネット等の通信ネットワークを利用して、遠隔地に居る患者に対して診療を行う行為である。特許文献3及び4には、スリットランプ顕微鏡を遠隔地から操作するための技術が開示されている。 Furthermore, with recent advances in information and communication technology, research and development into telemedicine is progressing. Telemedicine is the practice of providing medical treatment to patients in remote locations using a communication network such as the Internet. Patent documents 3 and 4 disclose technology for operating a slit lamp microscope from a remote location.

スリットランプ顕微鏡を用いて良好な画像を得るには、照明角度や撮影角度の調整など、微細で煩雑な操作が必要とされる。しかし、特許文献3、4に開示された技術では、目の前に居る被検者の眼を観察する場合であっても難しい操作を、遠隔地に居る検者が実施しなければならないため、検査時間が長くなったり、良好な画像が得られなかったりといった問題が生じる。 To obtain good images using a slit lamp microscope, delicate and complicated operations such as adjusting the illumination angle and the shooting angle are required. However, with the technology disclosed in Patent Documents 3 and 4, even when observing the eye of a subject who is right in front of the examiner, an examiner in a remote location must perform difficult operations, which results in problems such as longer examination times and failure to obtain good images.

また、上記のようにスリットランプ顕微鏡はスクリーニングやフォローアップ等の検査に有効であるが、高品質なスリットランプ顕微鏡検査を多くの人に提供するには、同装置の操作に熟練した者が不足しているという現状がある。 As mentioned above, slit lamp microscopes are effective for screening, follow-up, and other examinations, but there is currently a shortage of people skilled in operating the equipment to provide high-quality slit lamp microscopy examinations to many people.

更に、遠隔医療やスクリーニングでは、画像読影(画像診断)を行う医師が撮影場所にいないことが多々ある。その場合、読影に適さない画像が医師に提供される可能性がある。操作の難しさや撮影時間の長さを考慮すると、スリットランプ顕微鏡においてこの問題が生じやすいと想定される。 Furthermore, in remote medical care and screening, the doctor who interprets the images (image diagnosis) is often not present at the imaging location. In such cases, images that are not suitable for interpretation may be provided to the doctor. Considering the difficulty of operation and the length of time it takes to perform imaging, it is expected that this problem will be more likely to occur with slit lamp microscopes.

近年の研究から、眼の或る部位に関する情報と疾患との間に関連があることが分かってきている。例えば、緑内障に関して、患者に自覚症状が現れる前に視神経周囲の網膜神経線維層の菲薄化が進行し、自覚症状が現れる頃には、視野欠損を呈する局所部位では70%程度、全体では30%程度の菲薄化が生じていることが明らかになっている。また、地図状萎縮(GA)による視野欠損が網膜色素上皮(RPE)の障害に起因することや、血流動態などの機能的データと特定の疾患との間の関連についての研究も進められている。一般に、異常が発生する部位は、疾患の種類や進行度に応じて異なっている。 Recent research has revealed that there is a relationship between information about certain parts of the eye and diseases. For example, in the case of glaucoma, thinning of the retinal nerve fiber layer around the optic nerve progresses before the patient experiences any symptoms, and by the time symptoms appear, thinning has occurred by about 70% in the local area presenting with visual field defects and about 30% overall. Research is also being conducted on the fact that visual field defects due to geographic atrophy (GA) are caused by damage to the retinal pigment epithelium (RPE), and on the relationship between functional data such as blood flow dynamics and specific diseases. In general, the area where abnormalities occur varies depending on the type and progression of the disease.

また、疾患の進行度や治療後の経過を把握するためにフォローアップ(経過観察)が用いられる。眼科フォローアップの手法は、例えば特許文献5に開示されている。特許文献5には、眼の画像に対して検者が指定した領域のフォローアップを行うためのトレンド解析が開示されている。 Follow-up (observation of progress) is also used to understand the progression of a disease and the progress after treatment. Ophthalmic follow-up techniques are disclosed, for example, in Patent Document 5. Patent Document 5 discloses trend analysis for following up on an area specified by an examiner in an image of the eye.

このような従来技術では、疾患の種類や進行度が患者ごとに異なるにもかかわらず、所定のパラメータを一律に求めてフォローアップを行っているため、局所的な微少変化を捉えられない場合がある。また、従来技術では、検査の度に注目部位を指定するのが一般的であるが、これは手間であるし、指定ミスも起こりうる。 In such conventional technology, even though the type and progression of a disease differs from patient to patient, follow-up is performed by uniformly calculating certain parameters, so it may not be possible to detect small local changes. In addition, in conventional technology, it is common to specify the area of interest each time an examination is performed, but this is time-consuming and there is a risk of errors in specifying the area.

特開2016-159073号公報JP 2016-159073 A 特開2016-179004号公報JP 2016-179004 A 特開2000-116732号公報JP 2000-116732 A 特開2008-284273号公報JP 2008-284273 A 特開2014-83268号公報JP 2014-83268 A

本発明の1つの目的は、疾患種別や病期や病態にかかわらず眼の局所的な微少変化を捉えることにある。 One objective of the present invention is to detect small local changes in the eye regardless of disease type, stage, or condition.

例示的な態様のスリットランプ顕微鏡システムは、受付部と、関心位置情報取得部と、画像取得部と、画像解析部とを含む。受付部は、患者を識別するための患者識別情報を受け付ける。関心位置情報取得部は、複数の患者識別情報のそれぞれに関心領域の位置を示す関心位置情報が予め関連付けられて格納された格納手段から、受付部により受け付けられた患者識別情報に関連付けられた関心位置情報を取得する。画像取得部は、患者識別情報に対応する患者の被検眼の前眼部をスリット光でスキャンして画像を取得する。画像解析部は、関心位置情報取得部により取得された関心位置情報に基づいて、画像取得部により取得された画像の部分領域に対応する部分解析データを生成する。 An exemplary embodiment of a slit lamp microscope system includes a reception unit, a position of interest information acquisition unit, an image acquisition unit, and an image analysis unit. The reception unit accepts patient identification information for identifying a patient. The position of interest information acquisition unit acquires position of interest information associated with the patient identification information accepted by the reception unit from a storage means in which position of interest information indicating the position of a region of interest is pre-associated with each of a plurality of pieces of patient identification information and stored. The image acquisition unit acquires an image by scanning the anterior segment of the subject eye of the patient corresponding to the patient identification information with slit light. The image analysis unit generates partial analysis data corresponding to a partial region of the image acquired by the image acquisition unit based on the position of interest information acquired by the position of interest information acquisition unit.

例示的な態様によれば、疾患種別や病期や病態にかかわらず眼の局所的な微少変化を捉えることが可能になる。 According to an exemplary embodiment, it becomes possible to capture small local changes in the eye regardless of the type, stage, or condition of the disease.

例示的な態様に係るスリットランプ顕微鏡システムの構成を表す概略図である。1 is a schematic diagram illustrating a configuration of a slit lamp microscope system according to an exemplary embodiment. 例示的な態様に係るスリットランプ顕微鏡システムの構成を表す概略図である。1 is a schematic diagram illustrating a configuration of a slit lamp microscope system according to an exemplary embodiment. 例示的な態様に係るスリットランプ顕微鏡システムの構成を表す概略図である。1 is a schematic diagram illustrating a configuration of a slit lamp microscope system according to an exemplary embodiment. 例示的な態様に係るスリットランプ顕微鏡システムの構成を表す概略図である。1 is a schematic diagram illustrating a configuration of a slit lamp microscope system according to an exemplary embodiment. 例示的な態様に係るスリットランプ顕微鏡システムの動作を説明するための概略図である。1 is a schematic diagram for explaining the operation of a slit lamp microscope system according to an exemplary embodiment. FIG. 例示的な態様に係るスリットランプ顕微鏡システムの動作を説明するための概略図である。1 is a schematic diagram for explaining the operation of a slit lamp microscope system according to an exemplary embodiment. FIG. 例示的な態様に係るスリットランプ顕微鏡システムの動作を説明するための概略図である。1 is a schematic diagram for explaining the operation of a slit lamp microscope system according to an exemplary embodiment. FIG. 例示的な態様に係るスリットランプ顕微鏡システムの構成を表す概略図である。1 is a schematic diagram illustrating a configuration of a slit lamp microscope system according to an exemplary embodiment. 例示的な態様に係るスリットランプ顕微鏡システムの構成を表す概略図である。1 is a schematic diagram illustrating a configuration of a slit lamp microscope system according to an exemplary embodiment. 例示的な態様に係るスリットランプ顕微鏡システムの構成を表す概略図である。1 is a schematic diagram illustrating a configuration of a slit lamp microscope system according to an exemplary embodiment. 例示的な態様に係るスリットランプ顕微鏡システムの構成を表す概略図である。1 is a schematic diagram illustrating a configuration of a slit lamp microscope system according to an exemplary embodiment. 例示的な態様に係るスリットランプ顕微鏡システムの構成を表す概略図である。1 is a schematic diagram illustrating a configuration of a slit lamp microscope system according to an exemplary embodiment. 例示的な態様に係るスリットランプ顕微鏡システムの推論モデルの構築を説明するための概略図である。A schematic diagram for explaining the construction of an inference model of a slit lamp microscope system according to an exemplary embodiment. 例示的な態様に係るスリットランプ顕微鏡システムの構成を表す概略図である。1 is a schematic diagram illustrating a configuration of a slit lamp microscope system according to an exemplary embodiment. 例示的な態様に係るスリットランプ顕微鏡システムの構成を表す概略図である。1 is a schematic diagram illustrating a configuration of a slit lamp microscope system according to an exemplary embodiment. 例示的な態様に係るスリットランプ顕微鏡システムの構成を表す概略図である。1 is a schematic diagram illustrating a configuration of a slit lamp microscope system according to an exemplary embodiment. 例示的な態様に係るスリットランプ顕微鏡システムの動作を表すフローチャートである。1 is a flowchart illustrating the operation of a slit lamp microscope system according to an exemplary embodiment. 例示的な態様に係るスリットランプ顕微鏡システムの動作を表すフローチャートである。1 is a flowchart illustrating the operation of a slit lamp microscope system according to an exemplary embodiment. 例示的な態様に係るスリットランプ顕微鏡システムの動作を表すフローチャートである。1 is a flowchart illustrating the operation of a slit lamp microscope system according to an exemplary embodiment. 例示的な態様に係るスリットランプ顕微鏡システムの動作を表すフローチャートである。1 is a flowchart illustrating the operation of a slit lamp microscope system according to an exemplary embodiment. 例示的な態様に係るスリットランプ顕微鏡システムの動作を表すフローチャートである。1 is a flowchart illustrating the operation of a slit lamp microscope system according to an exemplary embodiment. 例示的な態様に係るスリットランプ顕微鏡システムの動作を説明するための概略図である。1 is a schematic diagram for explaining the operation of a slit lamp microscope system according to an exemplary embodiment. FIG. 例示的な態様に係るスリットランプ顕微鏡システムの動作を説明するための概略図である。1 is a schematic diagram for explaining the operation of a slit lamp microscope system according to an exemplary embodiment. FIG. 例示的な態様に係るスリットランプ顕微鏡システムの動作を説明するための概略図である。1 is a schematic diagram for explaining the operation of a slit lamp microscope system according to an exemplary embodiment. FIG. 例示的な態様に係るスリットランプ顕微鏡システムの構成を表す概略図である。1 is a schematic diagram illustrating a configuration of a slit lamp microscope system according to an exemplary embodiment.

幾つかの例示的な態様について図面を参照しながら詳細に説明する。なお、本明細書にて引用した文献に開示された事項などの任意の公知技術を例示的な態様に組み合わせることができる。また、本出願人によりなされた他の出願の開示の全体を本開示に援用することができる。例えば、本出願人によりなされたスリットランプ顕微鏡に関する出願の開示の少なくとも一部、スリットランプ顕微鏡を含むシステムに関する出願の開示の少なくとも一部、又は、スリットランプ顕微鏡に接続可能なシステムに関する出願の開示の少なくとも一部を、本開示に援用することができる。 Some exemplary aspects will be described in detail with reference to the drawings. Any known technology, such as those disclosed in the documents cited in this specification, may be combined with the exemplary aspects. The entire disclosure of other applications filed by the applicant may be incorporated into this disclosure. For example, at least a portion of the disclosure of an application filed by the applicant relating to a slit lamp microscope, at least a portion of the disclosure of an application filed by the applicant relating to a system including a slit lamp microscope, or at least a portion of the disclosure of an application filed by the applicant relating to a system connectable to a slit lamp microscope may be incorporated into this disclosure.

例示的な態様に係るスリットランプ顕微鏡システムは、設置型でも可搬型でもよい。例示的な態様に係るスリットランプ顕微鏡システムは、同装置や同検査に関する専門技術保持者(熟練者)が側にいない状況や環境で使用されてもよいし、熟練者が側にいる状況や環境で使用されてもよいし、熟練者が遠隔地から監視・指示・操作などを行うことが可能な状況や環境で使用されてもよい。例示的な態様に係るスリットランプ顕微鏡システムが設置される施設の例として、眼鏡店、オプトメトリスト、医療機関、健康診断会場、検診会場、患者の自宅、福祉施設、公共施設、検診車などがある。 The slit lamp microscope system according to the exemplary embodiment may be either stationary or portable. The slit lamp microscope system according to the exemplary embodiment may be used in a situation or environment where there is no expert (expert) with expertise in the device or the examination, or where an expert is nearby, or where an expert can monitor, give instructions, and operate from a remote location. Examples of facilities in which the slit lamp microscope system according to the exemplary embodiment may be installed include eyeglass stores, optometrists, medical institutions, health checkup locations, medical examination locations, patients' homes, welfare facilities, public facilities, medical examination vehicles, etc.

例示的な態様に係るスリットランプ顕微鏡システムが2以上の装置を含む場合、これらの装置は同じ場所に配置されてもよいし、異なる場所に配置されてもよい。例えば、スリットランプ顕微鏡システムがスリットランプ顕微鏡と情報処理装置とを含む場合、スリットランプ顕微鏡と情報処理装置とが遠隔配置されていてもよい。 When the slit lamp microscope system according to the exemplary embodiment includes two or more devices, these devices may be located in the same location or in different locations. For example, when the slit lamp microscope system includes a slit lamp microscope and an information processing device, the slit lamp microscope and the information processing device may be located remotely.

例示的な態様に係るスリットランプ顕微鏡システムは、スリットランプ顕微鏡としての撮影機能と所定の情報処理機能とを少なくとも備えており、任意的に、スリットランプ顕微鏡以外の撮影機能(モダリティ)、眼特性測定機能、他の情報処理機能などを更に備えていてもよい。 The slit lamp microscope system according to the exemplary embodiment has at least the imaging function of a slit lamp microscope and a predetermined information processing function, and may optionally further have imaging functions (modalities) other than the slit lamp microscope, an eye characteristic measurement function, other information processing functions, etc.

例示的な態様に係るシステム(第1のシステム)は、1以上のスリットランプ顕微鏡と、1以上の情報処理装置と、1以上の読影端末とを含んでいてよく、例えば遠隔医療のために使用可能である。スリットランプ顕微鏡、情報処理装置、及び読影端末のうちの1つ以上の装置は、いずれかの例示的な態様に係る情報処理機能を備えていてよい。スリットランプ顕微鏡は、いずれかの例示的な態様に係るスリットランプ顕微鏡であってもよいし、その少なくとも一部を具備したスリットランプ顕微鏡であってもよい。情報処理装置は、スリットランプ顕微鏡により取得された画像を受けてこれを読影端末に送信する。また、情報処理装置は、スリットランプ顕微鏡により取得された画像を管理する機能を備えていてもよい。なお、情報処理装置を設けることなく、スリットランプ顕微鏡から読影端末に向けて画像を送信してもよい。例えば、情報処理装置はスリットランプ顕微鏡に組み込まれていてよい。読影端末は、医師(典型的には、眼科医又は読影医等の専門医)が、スリットランプ顕微鏡により取得された画像の読影(画像を観察して診療上の所見を得ること)を行うために使用されるコンピュータである。読影者が読影端末に入力した情報は、例えば、読影端末又は他のコンピュータにより読影レポート又は電子カルテ情報に変換されて情報処理装置に送信されてよい。他の例示的な態様は、読影者が入力した情報を読影端末が受け付け、受け付けられた情報を読影端末が情報処理装置に送信し、読影端末から送信された情報を情報処理装置が受信し、受信された情報から情報処理装置又は他のコンピュータが読影レポート又は電子カルテ情報を生成するように構成されていてよい。情報処理装置は、読影レポート又は電子カルテ情報を管理する機能を有していてよい。また、情報処理装置は、読影レポート又は電子カルテ情報を他の装置又は他の医療システム(例えば電子カルテシステム)に転送する機能を有していてよい。 The system according to the exemplary embodiment (first system) may include one or more slit lamp microscopes, one or more information processing devices, and one or more image reading terminals, and may be usable for remote medical care, for example. One or more of the slit lamp microscope, the information processing device, and the image reading terminal may have an information processing function according to any of the exemplary embodiments. The slit lamp microscope may be a slit lamp microscope according to any of the exemplary embodiments, or may be a slit lamp microscope equipped with at least a part of the slit lamp microscope. The information processing device receives an image acquired by the slit lamp microscope and transmits it to the image reading terminal. The information processing device may also have a function of managing the image acquired by the slit lamp microscope. Note that an image may be transmitted from the slit lamp microscope to the image reading terminal without providing an information processing device. For example, the information processing device may be incorporated in the slit lamp microscope. The image reading terminal is a computer used by a doctor (typically a specialist such as an ophthalmologist or image reading doctor) to read an image acquired by the slit lamp microscope (observe the image to obtain a clinical finding). The information input by the image reader to the image reading terminal may be converted into an image reading report or electronic medical record information by the image reading terminal or another computer, and transmitted to an information processing device. Another exemplary embodiment may be configured such that the image reading terminal accepts the information input by the image reader, the image reading terminal transmits the accepted information to the information processing device, the information processing device receives the information transmitted from the image reading terminal, and the information processing device or another computer generates an image reading report or electronic medical record information from the received information. The information processing device may have a function of managing the image reading report or electronic medical record information. The information processing device may also have a function of transferring the image reading report or electronic medical record information to another device or another medical system (e.g., an electronic medical record system).

他の例示的な態様に係るシステム(第2のシステム)は、1以上のスリットランプ顕微鏡と、1以上の情報処理装置と、1以上の読影装置とを含んでいてよい。スリットランプ顕微鏡、情報処理装置、及び読影装置のうちの1つ以上の装置は、いずれかの例示的な態様に係る情報処理機能を備えていてよい。スリットランプ顕微鏡は第1のシステムのスリットランプ顕微鏡と同様であってよく、情報処理装置は第1のシステムの情報処理装置と同様であってよい。また、情報処理装置を設けることなく、スリットランプ顕微鏡から読影装置に向けて画像を送信してもよい。例えば、情報処理装置はスリットランプ顕微鏡に組み込まれていてよい。読影装置は、例えば、既定のプログラムにしたがって動作する画像処理プロセッサ、及び/又は、人工知能エンジン(推論エンジン、推論モデル、学習済みモデルなど)を利用して、スリットランプ顕微鏡により取得された画像の読影処理を実行するコンピュータである。読影装置又は他のコンピュータは、読影装置が画像から導出した情報から読影レポート又は電子カルテ情報を生成することができる。生成された読影レポート又は電子カルテ情報は、情報処理装置に送信されてよい。他の例において、読影装置が画像から導出した情報を情報処理装置に送信することができる。この場合、情報処理装置又は他のコンピュータは、読影装置が画像から導出した情報から読影レポート又は電子カルテ情報を生成することができる。更に他の例において、読影装置が画像から導出した情報、及び/又は、この情報に基づき生成された情報(読影レポート、電子カルテ情報など)を診断支援情報として医師に提供することができる。 A system according to another exemplary embodiment (a second system) may include one or more slit lamp microscopes, one or more information processing devices, and one or more image reading devices. One or more of the slit lamp microscope, the information processing device, and the image reading device may have an information processing function according to any of the exemplary embodiments. The slit lamp microscope may be the same as the slit lamp microscope of the first system, and the information processing device may be the same as the information processing device of the first system. In addition, an image may be transmitted from the slit lamp microscope to the image reading device without providing an information processing device. For example, the information processing device may be incorporated in the slit lamp microscope. The image reading device is, for example, an image processing processor that operates according to a predetermined program, and/or a computer that performs image reading processing of an image acquired by the slit lamp microscope using an artificial intelligence engine (such as an inference engine, an inference model, or a learned model). The image reading device or another computer can generate an image reading report or electronic medical record information from information derived from the image by the image reading device. The generated image reading report or electronic medical record information may be transmitted to the information processing device. In another example, the image reading device can transmit information derived from the image to the information processing device. In this case, the information processing device or another computer can generate an image reading report or electronic medical record information from the information derived from the image by the image reading device. In yet another example, the information derived from the image by the image reading device and/or information generated based on this information (image reading report, electronic medical record information, etc.) can be provided to a doctor as diagnostic support information.

更に他の例示的な態様に係るシステム(第3のシステム)は、1以上のスリットランプ顕微鏡と、1以上の情報処理装置とを含んでいてよい。スリットランプ顕微鏡及び/又は情報処理装置は、いずれかの例示的な態様に係る情報処理機能を備えていてよい。スリットランプ顕微鏡は、第1のシステムのスリットランプ顕微鏡と同様であってよく、情報処理装置は第1のシステムの情報処理装置及び/又は第2のシステムの情報処理装置と同様であってよい。換言すると、情報処理装置は、第1のシステムの読影端末若しくはこれに類するコンピュータとの間でデータ通信が可能であってよく、及び/又は、第2のシステムの読影装置若しくはこれに類するコンピュータとの間でデータ通信が可能であってよい。なお、情報処理装置はスリットランプ顕微鏡に組み込まれていてよい。 A system according to yet another exemplary embodiment (a third system) may include one or more slit lamp microscopes and one or more information processing devices. The slit lamp microscope and/or the information processing device may have an information processing function according to any of the exemplary embodiments. The slit lamp microscope may be similar to the slit lamp microscope of the first system, and the information processing device may be similar to the information processing device of the first system and/or the information processing device of the second system. In other words, the information processing device may be capable of data communication with an image reading terminal or a similar computer of the first system, and/or may be capable of data communication with an image reading device or a similar computer of the second system. The information processing device may be incorporated in the slit lamp microscope.

例示的な態様に係るスリットランプ顕微鏡システムは遠隔医療のために使用可能であるが、前述のようにスリットランプ顕微鏡で良好な画像を得ることは容易ではなく、また、読影や診断を有効に行うには前眼部の広い範囲の画像を「予め」取得する必要がある。このような事情から、スリットランプ顕微鏡を用いた有効な遠隔医療は実現されていないと言える。その実現に寄与する技術を例示的な態様は提供することができる。しかしながら、例示的な態様の用途は遠隔医療に限定されず、他の用途に例示的な態様を応用することも可能である。 The slit lamp microscope system according to the exemplary embodiment can be used for remote medical care, but as mentioned above, it is not easy to obtain good images with a slit lamp microscope, and in order to effectively interpret and diagnose images, it is necessary to obtain images of a wide range of the anterior segment "in advance." For these reasons, it can be said that effective remote medical care using a slit lamp microscope has not yet been realized. The exemplary embodiment can provide technology that contributes to the realization of this. However, the use of the exemplary embodiment is not limited to remote medical care, and the exemplary embodiment can also be applied to other uses.

例示的な態様に係るスリットランプ顕微鏡システムは、前眼部の広い範囲を良好な画質で表現した一連の画像(画像群、画像セット)を取得するために利用可能である。 The slit lamp microscope system according to the exemplary embodiment can be used to obtain a series of images (image group, image set) that represent a wide area of the anterior segment with good image quality.

例示的な態様は、次のような問題にも着目している。すなわち、例示的な態様が想定する応用形態(遠隔医療など)では、スリットランプ顕微鏡で前眼部の十分に広い範囲から一連の画像(画像群、画像セット)を直接的又は間接的に読影者に提供するため、提供される一連の画像の品質が低い場合であっても再撮影を行うことは難しく、その結果、読影を全く行えない、又は不十分な読影しか行えない、といった問題が生じるおそれがある。したがって、「良好な」品質の画像を「予め」取得する必要がある。つまり、診断(読影など)を有効に行うことが可能な品質を持った一連の画像を、読影者に提供する前にまとめて取得する必要がある。しかし、スリットランプ顕微鏡の操作の難しさに加えて、撮影時の瞬きや眼球運動の発生を考慮すると、観察や読影の対象領域全体を良好な画質で表現した一連の画像を得ることは極めて困難である。本開示は、このような問題への対処も考慮している。 The exemplary embodiment also focuses on the following problem. That is, in the application form (such as remote medical care) assumed by the exemplary embodiment, a series of images (a group of images, a set of images) from a sufficiently wide range of the anterior segment is directly or indirectly provided to the reader using a slit lamp microscope. Even if the quality of the series of images provided is low, it is difficult to retake them, and as a result, there is a risk of problems such as no interpretation being possible or only insufficient interpretation being possible. Therefore, it is necessary to obtain images of "good" quality "in advance." In other words, it is necessary to obtain a series of images with a quality that allows effective diagnosis (such as interpretation) all at once before providing them to the reader. However, considering the difficulty of operating a slit lamp microscope and the occurrence of blinking and eye movement during imaging, it is extremely difficult to obtain a series of images that represent the entire target area of observation or interpretation with good image quality. The present disclosure also takes into consideration how to deal with such problems.

以下、幾つかの例示的な態様について説明する。これら態様のうちのいずれか2つ以上の態様を少なくとも部分的に組み合わせることが可能である。また、このような組み合わせに対して任意の公知技術を組み合わせることやそれに基づく変形(置換、省略など)を施すことが可能である。 Below, several exemplary aspects are described. Any two or more of these aspects can be at least partially combined. In addition, any known technology can be combined with such combinations, and modifications (substitutions, omissions, etc.) can be made based on them.

本明細書に開示された要素の機能の少なくとも一部は、回路構成(circuitry)又は処理回路構成(processing circuitry)を用いて実装される。回路構成又は処理回路構成は、開示された機能の少なくとも一部を実行するように構成及び/又はプログラムされた、汎用プロセッサ、専用プロセッサ、集積回路、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、ASIC(Application Specific Integrated Circuit)、プログラマブル論理デバイス(例えば、SPLD(Simple Programmable Logic Device)、CPLD(Complex Programmable Logic Device)、FPGA(Field Programmable Gate Array)、従来の回路構成、及びそれらの任意の組み合わせのいずれかを含む。プロセッサは、トランジスタ及び/又は他の回路構成を含む、処理回路構成又は回路構成とみなされる。本開示において、回路構成、ユニット、手段、又はこれらに類する用語は、開示された機能の少なくとも一部を実行するハードウェア、又は、開示された機能の少なくとも一部を実行するようにプログラムされたハードウェアである。ハードウェアは、本明細書に開示されたハードウェアであってよく、或いは、記載された機能の少なくとも一部を実行するようにプログラム及び/又は構成された既知のハードウェアであってもよい。ハードウェアが或るタイプの回路構成とみなされ得るプロセッサである場合、回路構成、ユニット、手段、又はこれらに類する用語は、ハードウェアとソフトウェアとの組み合わせであり、このソフトウェアはハードウェア及び/又はプロセッサを構成するために使用される。 At least a portion of the functionality of the elements disclosed in this specification is implemented using circuitry or processing circuitry. The circuitry or processing circuitry may be a general purpose processor, a special purpose processor, an integrated circuit, a Central Processing Unit (CPU), a Graphics Processing Unit (GPU), an Application Specific Integrated Circuit (ASIC), a programmable logic device (e.g., a Simple Programmable Logic Device (SPLD), a Complex Programmable Logic Device (CPLD), a Field Programmable Gate Array (FPGA), or a combination of a number of different devices configured and/or programmed to perform at least some of the disclosed functions. Array), conventional circuitry, and any combination thereof. A processor is considered to be a processing circuitry or circuitry, including transistors and/or other circuitry. In this disclosure, a circuitry, unit, means, or similar term is hardware that performs at least some of the disclosed functions or hardware that is programmed to perform at least some of the disclosed functions. The hardware may be hardware disclosed herein, or may be known hardware that is programmed and/or configured to perform at least some of the described functions. If the hardware is a processor that can be considered as a type of circuitry, the circuitry, unit, means, or similar term is a combination of hardware and software, and the software is used to configure the hardware and/or the processor.

<スリットランプ顕微鏡システムの構成>
例示的な対象に係るスリットランプ顕微鏡システムは、例えば、情報処理機能を備えたスリットランプ顕微鏡、又は、スリットランプ顕微鏡と情報処理装置との組み合わせであってよい。1つの例示的な態様に係るスリットランプ顕微鏡システムの構成を図1A及び図1Bに示す。図1Aはスリットランプ顕微鏡システム1の全体構成の例を示し、図1Bはスリットランプ顕微鏡システム1のデータ処理部8及び記憶部10の構成例を示す。図1A中の符号Cは角膜を示し、符号CLは水晶体を示し、符号IRは虹彩を示し、符号CAは隅角を示す。
<Configuration of the slit lamp microscope system>
The slit lamp microscope system according to the exemplary subject matter may be, for example, a slit lamp microscope equipped with an information processing function, or a combination of a slit lamp microscope and an information processing device. The configuration of a slit lamp microscope system according to one exemplary embodiment is shown in Figures 1A and 1B. Figure 1A shows an example of the overall configuration of a slit lamp microscope system 1, and Figure 1B shows an example of the configuration of a data processing unit 8 and a storage unit 10 of the slit lamp microscope system 1. In Figure 1A, the symbol C indicates the cornea, the symbol CL indicates the crystalline lens, the symbol IR indicates the iris, and the symbol CA indicates the angle of the eye.

スリットランプ顕微鏡システム1は、患者(被検眼)ごとの関心領域(ROI)の解析データを自動生成するための構成を備えることで、疾患種別や病期や病態にかかわらず被検眼の局所的な微少変化を捉えることを可能とし、また、関心領域に関する診療(観察、解析、フォローアップなど)の少なくとも一部の工程を好適化(自動化、簡便化、容易化、効率化など)するものである。 The slit lamp microscope system 1 is equipped with a configuration for automatically generating analysis data for the region of interest (ROI) for each patient (examined eye), making it possible to capture small local changes in the examined eye regardless of the disease type, stage, or pathology, and also optimizing (automating, simplifying, facilitating, streamlining, etc.) at least some of the steps in medical treatment related to the region of interest (observation, analysis, follow-up, etc.).

関心領域は、診療において注目される箇所であり、例えば、病変、異常、診断対象部位、治療対象部位などであってよい。幾つかの例示的な態様において、関心領域は、角膜、虹彩、瞳孔、水晶体、人工物、毛様体、隅角、線維柱帯、及びシュレム管のいずれかに相当する領域を含んでいてよい。人工物は、例えば被検眼に移植された物体であり、その例として、眼内レンズ(IOL)、有水晶体眼内レンズ(フェイキックIOL)、後房型有水晶体眼内レンズ(ICL)、低侵襲緑内障手術(MIGS)デバイス、ステントなどがある。 The region of interest is a location of interest in medical treatment, and may be, for example, a lesion, an abnormality, a site to be diagnosed, a site to be treated, or the like. In some exemplary embodiments, the region of interest may include a region corresponding to any of the cornea, iris, pupil, lens, artificial object, ciliary body, angle, trabecular meshwork, and Schlemm's canal. The artificial object is, for example, an object implanted in the subject's eye, and examples of such an object include an intraocular lens (IOL), a phakic intraocular lens (phakic IOL), a posterior chamber phakic intraocular lens (ICL), a minimally invasive glaucoma surgery (MIGS) device, and a stent.

図1Aに示すように、スリットランプ顕微鏡システム1は、照明系2と、撮影系3と、移動機構6と、制御部7と、データ処理部8と、通信部9と、記憶部10とを含んでいる。また、図1Bに示すように、スリットランプ顕微鏡システム1は、受付部11を含む。詳細については後述するが、受付部11は、図1Aに示すいずれかの要素の少なくとも一部により構成されてもよいし、他の要素の少なくとも一部により構成されてもよいし、それらの組み合わせとして構成されてもよい。 As shown in FIG. 1A, the slit lamp microscope system 1 includes an illumination system 2, an imaging system 3, a moving mechanism 6, a control unit 7, a data processing unit 8, a communication unit 9, and a memory unit 10. As shown in FIG. 1B, the slit lamp microscope system 1 also includes a reception unit 11. Details will be described later, but the reception unit 11 may be composed of at least a part of any of the elements shown in FIG. 1A, or may be composed of at least a part of other elements, or may be composed of a combination thereof.

スリットランプ顕微鏡システム1は、単一の装置であってもよいし、2以上の装置を含むシステムであってもよい。後者の例として、スリットランプ顕微鏡システム1は、照明系2、撮影系3、及び移動機構6を含む本体装置と、制御部7、データ処理部8、通信部9、記憶部10、及び受付部11を含むコンピュータと、本体装置とコンピュータとの間のデータ通信を担う通信インターフェイスとを含む。このコンピュータは、例えば、本体装置とともに設置されてもよいし、ネットワーク上に設置されてもよい。このコンピュータの例として、上記の情報処理装置、読影端末、及び読影装置がある。 The slit lamp microscope system 1 may be a single device, or may be a system including two or more devices. As an example of the latter, the slit lamp microscope system 1 includes a main device including an illumination system 2, an imaging system 3, and a moving mechanism 6, a computer including a control unit 7, a data processing unit 8, a communication unit 9, a storage unit 10, and a reception unit 11, and a communication interface that handles data communication between the main device and the computer. This computer may be installed, for example, together with the main device, or may be installed on a network. Examples of this computer include the above-mentioned information processing device, image reading terminal, and image reading device.

<受付部11>
受付部11は、患者(被検者)の識別子を受け付ける。受付部11の構成や態様は任意であってよい。
<Reception Unit 11>
The accepting unit 11 accepts an identifier of a patient (subject). The accepting unit 11 may have any configuration or aspect.

患者の識別子は、患者識別情報、被検者識別情報、患者ID、被検者IDなどと呼ばれる。患者IDは、各患者に対して付与される、少なくとも局所的に一意的なコード(文字列情報、画像情報など)である。例えば、患者IDは、或る医療機関において各患者に一意的に付与されるコード、又は、或る値域(国、県など)において各患者に一意的に付与される公的なコードであってよい。 A patient identifier is called patient identification information, subject identification information, patient ID, subject ID, etc. A patient ID is an at least locally unique code (character string information, image information, etc.) that is assigned to each patient. For example, a patient ID may be a code that is uniquely assigned to each patient at a certain medical institution, or a public code that is uniquely assigned to each patient in a certain value range (country, prefecture, etc.).

幾つかの例示的な態様の受付部11は、患者IDの入力を受け付けて信号に変換するデバイスと、このデバイスからの信号を受け付ける制御部7とを含む。このデバイスは、例えば、キーボードやタッチスクリーンなどのユーザーインターフェイス(マンマシンインターフェイス)、又は、記録媒体から患者IDを読み出すデータリーダであってよい。スリットランプ顕微鏡システム1(制御部7、データ処理部8など)は、患者認証を行うことができる。 The reception unit 11 in some exemplary embodiments includes a device that receives input of a patient ID and converts it into a signal, and a control unit 7 that receives the signal from this device. This device may be, for example, a user interface (man-machine interface) such as a keyboard or a touch screen, or a data reader that reads the patient ID from a recording medium. The slit lamp microscope system 1 (control unit 7, data processing unit 8, etc.) can perform patient authentication.

<記憶部10>
記憶部10は、各種のデータを記憶する。例えば、記憶部10は、被検眼Eの前眼部をスリット光でスキャンして収集された画像群、2以上の画像群から作成された画像セット、画像解析により生成された解析データ、画像群又は画像セットから構築された加工画像などが記憶される。制御部7は、記憶部10にデータを格納する処理と、記憶部10からデータを読み出す処理とを実行する。格納処理や読み出し処理は、スリットランプ顕微鏡システム1の各種の動作において適時実行されるものである。
<Storage unit 10>
The storage unit 10 stores various types of data. For example, the storage unit 10 stores an image group collected by scanning the anterior segment of the subject's eye E with slit light, an image set created from two or more image groups, analysis data generated by image analysis, a processed image constructed from an image group or an image set, and the like. The control unit 7 executes a process of storing data in the storage unit 10 and a process of reading data from the storage unit 10. The storage process and read process are executed as appropriate in various operations of the slit lamp microscope system 1.

更に、記憶部10は、関連情報100を予め記憶している。関連情報100は、少なくとも、複数の患者IDと複数の関心位置情報とを関連付けている。例えば、関連情報100は、複数の患者IDのそれぞれに対して関心位置情報を関連付けている。 Furthermore, the storage unit 10 prestores related information 100. The related information 100 at least associates multiple patient IDs with multiple pieces of location information of interest. For example, the related information 100 associates each of the multiple patient IDs with location information of interest.

関心位置情報は、関心領域の位置を示す。関心領域の位置は、例えば、角膜の位置、虹彩の位置、瞳孔の位置、水晶体の位置、人工物の位置、毛様体の位置、隅角の位置、線維柱帯の位置、及びシュレム管の位置のいずれかであってよい。幾つかの例示的な態様において、関心領域の位置は、角膜前面/後面の特徴(頂点、炎症、腫瘍など)の位置、角膜内部の特徴(手術による変化、治療による変化、角膜の外周の位置、投薬による変化など)の位置、水晶体前嚢/後嚢の特徴(頂点など)の位置、水晶体内部の特徴(中心、重心、混濁など)の位置、IOLの前面/後面の特徴(頂点、汚れ、傷など)の位置、及び、隅角の外周の位置のうちのいずれかであってよい。幾つかの例示的な態様において、関心領域は、角膜のサブ組織(角膜前面、角膜後面、角膜上皮、ボーマン膜、固有層、デュア層、デスメ膜、角膜内皮など)や、水晶体のサブ組織(水晶体前面、水晶体後面、水晶体核、上皮、水晶体嚢など)などであってよい。 The interest position information indicates the position of the region of interest. The position of the region of interest may be, for example, any of the following: the position of the cornea, the position of the iris, the position of the pupil, the position of the lens, the position of an artificial object, the position of the ciliary body, the position of the angle, the position of the trabecular meshwork, and the position of the Schlemm's canal. In some exemplary aspects, the position of the region of interest may be any of the following: the position of anterior/posterior corneal features (apex, inflammation, tumor, etc.), the position of internal corneal features (changes due to surgery, changes due to treatment, position of the corneal circumference, changes due to medication, etc.), the position of anterior/posterior lens capsule features (apex, etc.), the position of internal lens features (center, center of gravity, opacity, etc.), the position of anterior/posterior IOL features (apex, stain, scratch, etc.), and the position of the circumference of the angle. In some exemplary embodiments, the region of interest may be a sub-tissue of the cornea (such as the anterior corneal surface, the posterior corneal surface, the corneal epithelium, Bowman's membrane, the lamina propria, Duar's layer, Descemet's membrane, or the corneal endothelium) or a sub-tissue of the lens (such as the anterior lens surface, the posterior lens surface, the lens nucleus, the epithelium, or the lens capsule).

関連情報100の例を図2に示す。本例の関連情報101は、複数の患者ID(PID(1)、PID(2)、・・・)のそれぞれに対して、対象眼情報(右眼/左眼、R/L)と、関心位置情報(ROI(1R)、ROI(1L)、ROI(2R)、・・・)と、パラメータ種別情報(P(1R)、P(1L)、P(2R)、・・・)とを関連付けている。例えば、関連情報101は、患者ID「PID(1)」に対して、対象眼情報「R」と関心位置情報「ROI(1R)」とパラメータ種別情報「P(1R)」とを関連付けるとともに、対象眼情報「L」と関心位置情報「ROI(1L)」とパラメータ種別情報「P(1L)」とを関連付けている。換言すると、患者ID「PID(1)」の患者の右眼「R」に対して関心位置情報「ROI(1R)」とパラメータ種別情報「P(1R)」とを関連付けるとともに、左眼「L」に対して関心位置情報「ROI(1L)」とパラメータ種別情報「P(1L)」とを関連付けている。他の患者IDについても同様である。 An example of related information 100 is shown in FIG. 2. In this example, related information 101 associates target eye information (right eye/left eye, R/L), position of interest information (ROI(1R), ROI(1L), ROI(2R), ...), and parameter type information (P(1R), P(1L), P(2R), ...) with each of multiple patient IDs (PID(1), PID(2), ...). For example, related information 101 associates target eye information "R", position of interest information "ROI(1R)", and parameter type information "P(1R)" with patient ID "PID(1)", and also associates target eye information "L", position of interest information "ROI(1L)", and parameter type information "P(1L)". In other words, the right eye "R" of the patient with patient ID "PID(1)" is associated with the position of interest information "ROI(1R)" and the parameter type information "P(1R)," and the left eye "L" is associated with the position of interest information "ROI(1L)" and the parameter type information "P(1L)." The same applies to the other patient IDs.

パラメータ種別情報は、演算の対象となるパラメータの種別を示す情報である。パラメータ種別情報は、任意的に採用される情報であり、また、事後的に変更可能であってよい。例えば、医師等は、関心位置情報に対応する被検眼(前眼部)の部位の観察を行い、ユーザーインターフェイスを用いて当該部位のフォローアップを行うと判断したパラメータの種別を指定することができる。この指定を受け、制御部7(又は他の情報処理装置)は、この患者の患者IDに関連付けてパラメータ種別情報を登録する。その後のフォローアップにおいて医師等がユーザーインターフェイスを用いてパラメータの編集(追加、削除、変更など)を行った場合、制御部7(又は他の情報処理装置)は、医師が行った編集の内容に基づいてパラメータ種別情報を更新することができる。 The parameter type information is information indicating the type of the parameter to be calculated. The parameter type information is information that is adopted arbitrarily, and may be changeable after the fact. For example, a doctor or the like can observe the part of the subject's eye (anterior segment) corresponding to the interest position information, and can specify the type of the parameter that is determined to be used for follow-up of the part using a user interface. In response to this specification, the control unit 7 (or another information processing device) registers the parameter type information in association with the patient ID of this patient. If the doctor or the like edits (adds, deletes, changes, etc.) the parameters using the user interface during subsequent follow-up, the control unit 7 (or another information processing device) can update the parameter type information based on the content of the edits made by the doctor.

また、一般に、適用されるパラメータの種別は、疾患の種別や関心領域の種別に応じて異なる。例えば、緑内障眼については隅角に関するパラメータが適用され、白内障眼については水晶体混濁に関するパラメータが適用される。他の疾患についても、それに応じたパラメータが適用される。したがって、スリットランプ顕微鏡システム1に次のような機能を設けることが可能である:疾患種別及び/又は関心領域種別と、パラメータ種別とが関連付けられた情報を予め記憶する機能;疾患種別及び/又は関心領域種別の入力を受け付ける機能;入力された情報に関連付けられたパラメータ種別を上記情報から特定する機能;特定されたパラメータ種別と入力された関心領域種別とを患者IDに関連付ける機能。また、上記のように、疾患種別に応じて関心領域種別が定まる場合がある。その場合、疾患種別に対して1以上の関心領域種別が関連付けられた情報を予め記憶する機能と、入力された疾患種別に関連付けられた関心領域種別を当該情報から特定する機能とを更に設けることが可能である。なお、このようにパラメータ種別(及び関心領域種別)を自動で設定する構成が適用される場合であっても、この自動設定された内容をユーザーが事後的に変更するための機能が設けられていてよい。 In addition, the type of parameters to be applied generally varies depending on the type of disease and the type of region of interest. For example, parameters related to the angle are applied to eyes with glaucoma, and parameters related to lens opacity are applied to eyes with cataracts. For other diseases, parameters corresponding to the diseases are also applied. Therefore, the slit lamp microscope system 1 can be provided with the following functions: a function for pre-storing information in which disease types and/or region of interest types are associated with parameter types; a function for accepting input of disease types and/or region of interest types; a function for identifying parameter types associated with the input information from the above information; a function for associating the identified parameter types and the input region of interest types with a patient ID. As described above, the region of interest type may be determined according to the disease type. In that case, it is possible to further provide a function for pre-storing information in which one or more region of interest types are associated with the disease type, and a function for identifying region of interest types associated with the input disease type from the information. Note that even when a configuration for automatically setting parameter types (and region of interest types) is applied in this way, a function for allowing the user to change the automatically set content after the fact may be provided.

幾つかの例示的な態様の関連情報100においては、対象眼情報として「両眼」を指定可能としつつ、右眼及び左眼の双方に共通の関心位置情報及び/又はパラメータ種別情報を関連付けるようにしてもよい。このような関連情報100は、例えば、左右両眼について(ほぼ)同様に進行するような疾患に適用される。また、幾つかの例示的な態様の関連情報100は、対象眼情報を含まずに、関心位置情報及びパラメータ種別情報を患者IDに関連付けるように構成されていてよい。このような関連情報100は、例えば、左右両眼について(ほぼ)同様に進行するような疾患に適用され、又は、一方の眼にのみ検査が実施される場合に適用される。 In some exemplary aspects of the related information 100, while allowing "both eyes" to be specified as the target eye information, common location of interest information and/or parameter type information may be associated with both the right and left eyes. Such related information 100 is applied, for example, to a disease that progresses (almost) the same in both the left and right eyes. In addition, some exemplary aspects of the related information 100 may be configured to associate location of interest information and parameter type information with a patient ID without including target eye information. Such related information 100 is applied, for example, to a disease that progresses (almost) the same in both the left and right eyes, or is applied when an examination is performed on only one eye.

<照明系2>
照明系2は、被検眼Eの前眼部にスリット光を照射する。符号2aは、照明系2の光軸(照明光軸)を示す。照明系2は、従来のスリットランプ顕微鏡の照明系と同様の構成を備えていてよい。図示は省略するが、例示的な照明系2は、被検眼Eから遠い側から順に、照明光源と、正レンズと、スリット形成部と、対物レンズとを含む。
<Lighting system 2>
The illumination system 2 irradiates slit light onto the anterior segment of the subject's eye E. Reference symbol 2a indicates the optical axis (illumination optical axis) of the illumination system 2. The illumination system 2 may have a configuration similar to that of an illumination system of a conventional slit lamp microscope. Although not shown in the figure, the exemplary illumination system 2 includes, in order from the side farthest from the subject's eye E, an illumination light source, a positive lens, a slit forming unit, and an objective lens.

照明光源は照明光を出力する。照明系2は複数の照明光源を備えていてよい。例えば、照明系2は、連続光を出力する照明光源と、フラッシュ光を出力する照明光源とを含んでいてよい。また、照明系2は、前眼部用照明光源と後眼部用照明光源とを含んでいてよい。また、照明系2は、出力波長が異なる2以上の照明光源を含んでいてよい。典型的な照明系2は、照明光源として可視光源を含む。照明系2は、赤外光源を含んでいてもよい。照明光源から出力された照明光は、正レンズを通過してスリット形成部に投射される。 The illumination light source outputs illumination light. The illumination system 2 may include multiple illumination light sources. For example, the illumination system 2 may include an illumination light source that outputs continuous light and an illumination light source that outputs flash light. The illumination system 2 may also include an illumination light source for the anterior segment and an illumination light source for the posterior segment. The illumination system 2 may also include two or more illumination light sources with different output wavelengths. A typical illumination system 2 includes a visible light source as an illumination light source. The illumination system 2 may also include an infrared light source. The illumination light output from the illumination light source passes through a positive lens and is projected onto the slit forming section.

スリット形成部は、照明光の一部を通過させてスリット光を生成する。典型的なスリット形成部は、一対のスリット刃を有する。これらスリット刃の間隔(スリット幅)を変更することで照明光が通過する領域(スリット)の幅を変更し、これによりスリット光の幅が変更される。また、スリット形成部は、スリット光の長さを変更可能に構成されてもよい。スリット光の長さとは、スリット幅に対応するスリット光の断面幅方向に直交する方向におけるスリット光の断面寸法である。スリット光の幅やスリット光の長さは、典型的には、スリット光の前眼部への投影像の寸法として表現されるが、これには限定されず、例えば、任意の位置におけるスリット光の断面における寸法として表現することや、スリット形成部により形成されるスリットの寸法として表現することも可能である。 The slit forming unit generates slit light by passing a portion of the illumination light. A typical slit forming unit has a pair of slit blades. The width of the area (slit) through which the illumination light passes is changed by changing the distance between the slit blades (slit width), and thus the width of the slit light is changed. The slit forming unit may also be configured to change the length of the slit light. The length of the slit light is the cross-sectional dimension of the slit light in a direction perpendicular to the cross-sectional width direction of the slit light corresponding to the slit width. The width and length of the slit light are typically expressed as the dimensions of the image of the slit light projected onto the anterior segment of the eye, but are not limited to this. For example, they can be expressed as the dimensions of the cross section of the slit light at any position, or as the dimensions of the slit formed by the slit forming unit.

スリット形成部により生成されたスリット光は、対物レンズにより屈折されて被検眼Eの前眼部に照射される。 The slit light generated by the slit forming unit is refracted by the objective lens and irradiated onto the anterior segment of the subject's eye E.

照明系2は、スリット光のフォーカス位置を変更するための合焦機構を更に含んでいてもよい。合焦機構は、例えば、対物レンズを照明光軸2aに沿って移動させる。対物レンズの移動は、自動及び/又は手動で実行可能である。なお、対物レンズとスリット形成部との間の照明光軸2a上の位置に合焦レンズを配置し、この合焦レンズを照明光軸2aに沿って移動させることによってスリット光のフォーカス位置を変更可能としてもよい。 The illumination system 2 may further include a focusing mechanism for changing the focus position of the slit light. The focusing mechanism, for example, moves the objective lens along the illumination optical axis 2a. The movement of the objective lens can be performed automatically and/or manually. Note that a focusing lens may be disposed at a position on the illumination optical axis 2a between the objective lens and the slit forming section, and the focus position of the slit light may be changed by moving this focusing lens along the illumination optical axis 2a.

なお、図1Aは上面図であり、同図に示すように、本態様では、被検眼Eの軸に沿う方向をZ方向とし、これに直交する方向のうち被検者にとって左右の方向をX方向とし、X方向及びZ方向の双方に直交する方向をY方向とする。典型的には、X方向は左眼と右眼との配列方向であり、Y方向は被検者の体軸に沿う方向(体軸方向)である。 Note that FIG. 1A is a top view, and as shown in the figure, in this embodiment, the direction along the axis of the subject's eye E is the Z direction, the direction perpendicular to this that is the left-right direction for the subject is the X direction, and the direction perpendicular to both the X and Z directions is the Y direction. Typically, the X direction is the alignment direction of the left and right eyes, and the Y direction is the direction along the subject's body axis (body axis direction).

<撮影系3>
撮影系3は、照明系2からのスリット光が照射されている前眼部を撮影する。符号3aは、撮影系3の光軸(撮影光軸)を示す。本態様の撮影系3は、光学系4と、撮像素子5とを含む。
<Photography Series 3>
The imaging system 3 images the anterior segment of the eye illuminated with the slit light from the illumination system 2. Reference numeral 3a denotes an optical axis (imaging optical axis) of the imaging system 3. The imaging system 3 in this embodiment includes an optical system 4 and an image sensor 5.

光学系4は、スリット光が照射されている被検眼Eの前眼部からの光を撮像素子5に導く。撮像素子5は、光学系4により導かれた光を撮像面にて受光する。 The optical system 4 guides light from the anterior segment of the subject's eye E, which is irradiated with the slit light, to the image sensor 5. The image sensor 5 receives the light guided by the optical system 4 on the imaging surface.

光学系4により導かれる光(被検眼Eの前眼部からの光)は、前眼部に照射されているスリット光の戻り光を含み、他の光を更に含んでいてよい。戻り光の例として、反射光、散乱光、蛍光がある。他の光の例として、環境からの光(室内光、太陽光など)がある。前眼部全体を照明するための前眼部照明系が照明系2とは別に設けられている場合には、この前眼部照明光の戻り光が光学系4により導かれる光に含まれる。 The light guided by the optical system 4 (light from the anterior segment of the subject's eye E) includes the return light of the slit light irradiated on the anterior segment, and may further include other light. Examples of the return light include reflected light, scattered light, and fluorescence. Examples of other light include light from the environment (room light, sunlight, etc.). When an anterior segment illumination system for illuminating the entire anterior segment is provided separately from the illumination system 2, the return light of this anterior segment illumination light is included in the light guided by the optical system 4.

光学系4は、従来のスリットランプ顕微鏡の撮影系と同様の構成を備えていてよい。例えば、光学系4は、被検眼Eに近い側から順に、対物レンズと、変倍光学系と、結像レンズとを含む。スリット光が照射されている被検眼Eの前眼部からの光は、対物レンズ及び変倍光学系を通過し、結像レンズにより撮像素子5の撮像面に結像される。 The optical system 4 may have a configuration similar to that of the imaging system of a conventional slit lamp microscope. For example, the optical system 4 includes, in order from the side closest to the subject's eye E, an objective lens, a variable magnification optical system, and an imaging lens. Light from the anterior segment of the subject's eye E irradiated with the slit light passes through the objective lens and the variable magnification optical system, and is imaged on the imaging surface of the image sensor 5 by the imaging lens.

撮像素子5は、2次元の撮像エリアを有するエリアセンサであり、例えば、電荷結合素子(CCD)イメージセンサ又は相補型金属酸化膜半導体(CMOS)イメージセンサであってよい。 The imaging element 5 is an area sensor having a two-dimensional imaging area, and may be, for example, a charge-coupled device (CCD) image sensor or a complementary metal-oxide semiconductor (CMOS) image sensor.

撮影系3は、そのフォーカス位置を変更するための合焦機構を更に含んでいてもよい。合焦機構は、例えば、対物レンズを撮影光軸3aに沿って移動させる。対物レンズの移動は、自動及び/又は手動で実行可能である。なお、対物レンズと結像レンズとの間の撮影光軸3a上の位置に合焦レンズを配置し、この合焦レンズを撮影光軸3aに沿って移動させることによってフォーカス位置を変更可能としてもよい。 The imaging system 3 may further include a focusing mechanism for changing the focus position. The focusing mechanism, for example, moves the objective lens along the imaging optical axis 3a. The movement of the objective lens can be performed automatically and/or manually. Note that the focus position may be changed by disposing a focusing lens at a position on the imaging optical axis 3a between the objective lens and the imaging lens, and moving this focusing lens along the imaging optical axis 3a.

照明系2及び撮影系3は、シャインプルーフカメラとして機能する。すなわち、照明光軸2aに沿う物面と、光学系4と、撮像素子5の撮像面とが、いわゆるシャインプルーフの条件を満足するように、照明系2及び撮影系3が構成される。より具体的には、照明光軸2aを通るYZ面(物面を含む)と、光学系4の主面と、撮像素子5の撮像面とが、同一の直線上にて交差する。これにより、物面内の全ての位置(照明光軸2aに沿う方向における全ての位置)にピントを合わせて撮影を行うことができる。 The illumination system 2 and the imaging system 3 function as a Scheimpflug camera. That is, the illumination system 2 and the imaging system 3 are configured so that the object plane along the illumination optical axis 2a, the optical system 4, and the imaging surface of the imaging element 5 satisfy the so-called Scheimpflug condition. More specifically, the YZ plane (including the object plane) passing through the illumination optical axis 2a, the principal plane of the optical system 4, and the imaging surface of the imaging element 5 intersect on the same straight line. This makes it possible to focus on all positions within the object plane (all positions in the direction along the illumination optical axis 2a) and perform imaging.

本態様では、例えば、前眼部の所定部位の少なくとも一部を含む3次元領域に撮影系3のピントが合った状態で撮影が行われる。Z方向については、例えば、角膜Cの前面の頂点(Z=Z1)から水晶体CLの後面の頂点(Z=Z2)までの範囲全体に撮影系3のピントが合った状態で撮影を行うことが可能である。なお、Z=Z0は、照明光軸2aと撮影光軸3aとの交点のZ座標を示す。 In this embodiment, for example, imaging is performed with the imaging system 3 focused on a three-dimensional region including at least a portion of a specific area of the anterior eye. With regard to the Z direction, for example, imaging can be performed with the imaging system 3 focused on the entire range from the apex of the anterior surface of the cornea C (Z = Z1) to the apex of the posterior surface of the crystalline lens CL (Z = Z2). Note that Z = Z0 indicates the Z coordinate of the intersection of the illumination optical axis 2a and the imaging optical axis 3a.

このような条件は、典型的には、照明系2に含まれる要素の構成及び配置、撮影系3に含まれる要素の構成及び配置、並びに、照明系2と撮影系3との相対位置によって実現される。照明系2と撮影系3との相対位置を示すパラメータは、例えば、照明光軸2aと撮影光軸3aとがなす角度θを含む。角度θは、例えば、17.5度、30度、又は45度に設定される。なお、角度θは可変であってもよい。 Such conditions are typically realized by the configuration and arrangement of elements included in the illumination system 2, the configuration and arrangement of elements included in the imaging system 3, and the relative positions of the illumination system 2 and the imaging system 3. Parameters indicating the relative positions of the illumination system 2 and the imaging system 3 include, for example, the angle θ between the illumination optical axis 2a and the imaging optical axis 3a. The angle θ is set to, for example, 17.5 degrees, 30 degrees, or 45 degrees. Note that the angle θ may be variable.

<移動機構6>
移動機構6は、照明系2及び撮影系3を移動する。移動機構6は、例えば、照明系2及び撮影系3が搭載された可動ステージと、制御部7から入力される制御信号にしたがって動作するアクチュエータと、このアクチュエータにより発生された駆動力に基づき可動ステージを移動する機構とを含む。他の例において、移動機構6は、照明系2及び撮影系3が搭載された可動ステージと、図示しない操作デバイスに印加された力に基づき可動ステージを移動する機構とを含む。操作デバイスは、例えばレバーである。可動ステージは、少なくともX方向に移動可能であり、更にY方向及び/又はZ方向に移動可能であってよい。
<Moving mechanism 6>
The moving mechanism 6 moves the illumination system 2 and the imaging system 3. The moving mechanism 6 includes, for example, a movable stage on which the illumination system 2 and the imaging system 3 are mounted, an actuator that operates according to a control signal input from the control unit 7, and a mechanism that moves the movable stage based on a driving force generated by the actuator. In another example, the moving mechanism 6 includes a movable stage on which the illumination system 2 and the imaging system 3 are mounted, and a mechanism that moves the movable stage based on a force applied to an operation device (not shown). The operation device is, for example, a lever. The movable stage is movable at least in the X direction, and may further be movable in the Y direction and/or the Z direction.

本態様において、移動機構6は、例えば、照明系2及び撮影系3を一体的にX方向に移動する。つまり、移動機構6は、上記したシャインプルーフの条件が満足された状態を保持しつつ照明系2及び撮影系3をX方向に移動する。この移動と並行して、撮影系3は、例えば所定の時間間隔(撮影レート)で動画撮影を行う。これにより、被検眼Eの前眼部の3次元領域がスリット光でスキャンされ、この3次元領域内の複数の断面に対応する複数の画像(画像群)が収集される。 In this embodiment, the moving mechanism 6 moves the illumination system 2 and the imaging system 3 together in the X direction, for example. That is, the moving mechanism 6 moves the illumination system 2 and the imaging system 3 in the X direction while maintaining a state in which the above-mentioned Scheimpflug condition is satisfied. In parallel with this movement, the imaging system 3 captures video at a predetermined time interval (imaging rate), for example. As a result, a three-dimensional region of the anterior segment of the subject's eye E is scanned with slit light, and multiple images (image group) corresponding to multiple cross sections within this three-dimensional region are collected.

また、典型的な例において、照明系2により前眼部に照射されるスリット光の長手方向(長さ方向)はY方向に一致され、短手方向(幅方向)はX方向に一致される。更に、移動機構6は、照明系2及び撮影系3を一体的にX方向に移動する。つまり、移動機構6は、照明系2により前眼部に照射されるスリット光がこのスリット光の幅方向に移動するように照明系2及び撮影系3を移動する。これにより、前眼部の3次元領域を簡便且つ効率的にスキャンすることが可能になる。なお、スリット光の向きと移動方向との組み合わせは任意であってよい。 In addition, in a typical example, the longitudinal direction (length direction) of the slit light irradiated to the anterior segment by the illumination system 2 is aligned with the Y direction, and the transverse direction (width direction) is aligned with the X direction. Furthermore, the movement mechanism 6 moves the illumination system 2 and the imaging system 3 integrally in the X direction. In other words, the movement mechanism 6 moves the illumination system 2 and the imaging system 3 so that the slit light irradiated to the anterior segment by the illumination system 2 moves in the width direction of the slit light. This makes it possible to simply and efficiently scan the three-dimensional region of the anterior segment. Note that any combination of the orientation of the slit light and the movement direction may be used.

<制御部7>
制御部7は、スリットランプ顕微鏡システム1の各部を制御する。例えば、制御部7は、照明系2の要素(照明光源、スリット形成部、合焦機構など)、撮影系3の要素(合焦機構、撮像素子など)、移動機構6、データ処理部8、通信部9などを制御する。また、制御部7は、照明系2と撮影系3との相対位置を変更するための制御を実行可能であってもよい。更に、制御部7は、スリットランプ顕微鏡システム1に含まれるデバイス(例えば表示デバイス)又はスリットランプ顕微鏡システム1に接続された装置(例えば表示デバイス)を制御可能であってもよい。
<Control Unit 7>
The control unit 7 controls each unit of the slit lamp microscope system 1. For example, the control unit 7 controls elements of the illumination system 2 (illumination light source, slit forming unit, focusing mechanism, etc.), elements of the imaging system 3 (focusing mechanism, image sensor, etc.), the moving mechanism 6, the data processing unit 8, the communication unit 9, etc. The control unit 7 may also be capable of executing control for changing the relative position between the illumination system 2 and the imaging system 3. Furthermore, the control unit 7 may also be capable of controlling a device (e.g., a display device) included in the slit lamp microscope system 1 or an apparatus (e.g., a display device) connected to the slit lamp microscope system 1.

制御部7は、プロセッサ、主記憶装置、補助記憶装置などを含む。補助記憶装置には、制御プログラム等が記憶されている。制御プログラム等は、スリットランプ顕微鏡システム1がアクセス可能なコンピュータや記憶装置に記憶されていてもよい。制御部7の機能は、制御プログラム等のソフトウェアと、プロセッサ等のハードウェアとの協働によって実現される。 The control unit 7 includes a processor, a main memory device, an auxiliary memory device, etc. The auxiliary memory device stores a control program, etc. The control program, etc. may be stored in a computer or a memory device that is accessible to the slit lamp microscope system 1. The functions of the control unit 7 are realized by the cooperation of software such as the control program and hardware such as a processor.

制御部7は、被検眼Eの前眼部の3次元領域をスリット光でスキャンするために、照明系2、撮影系3及び移動機構6に対して次のような制御を適用することができる。 The control unit 7 can apply the following control to the illumination system 2, the imaging system 3, and the movement mechanism 6 in order to scan the three-dimensional area of the anterior segment of the subject's eye E with slit light.

まず、制御部7は、照明系2及び撮影系3を所定のスキャン開始位置に配置するように移動機構6を制御する(アライメント制御)。スキャン開始位置は、例えば、X方向における角膜Cの端部(第1端部)に相当する位置、又は、それよりも被検眼Eの軸から離れた位置である。 First, the control unit 7 controls the movement mechanism 6 to place the illumination system 2 and the imaging system 3 at a predetermined scan start position (alignment control). The scan start position is, for example, a position corresponding to the end (first end) of the cornea C in the X direction, or a position further away from the axis of the subject's eye E.

図4Aの符号X0は、X方向における角膜Cの第1端部に相当するスキャン開始位置の例を示している。また、図4Bの符号X0′は、X方向における角膜Cの第1端部に相当する位置よりも被検眼Eの軸EAから離れたスキャン開始位置の例を示している。 The symbol X0 in FIG. 4A shows an example of a scan start position that corresponds to the first end of the cornea C in the X direction. Also, the symbol X0' in FIG. 4B shows an example of a scan start position that is farther away from the axis EA of the test eye E than the position that corresponds to the first end of the cornea C in the X direction.

制御部7は、照明系2を制御して、被検眼Eの前眼部に対するスリット光の照射を開始させる(スリット光照射制御)。なお、アライメント制御の実行前に、又は、アライメント制御の実行中に、スリット光照射制御を行ってもよい。スリット光は、典型的には連続光であるが、断続光(パルス光)であってもよい。パルス光の点灯制御は、撮影系3の撮影レートに同期される。また、スリット光は、典型的には可視光であるが、赤外光であってもよいし、可視光と赤外光との混合光であってもよい。 The control unit 7 controls the illumination system 2 to start irradiating the anterior segment of the subject's eye E with slit light (slit light irradiation control). Note that the slit light irradiation control may be performed before or during the execution of the alignment control. The slit light is typically continuous light, but may also be intermittent light (pulsed light). The control of the pulsed light is synchronized with the imaging rate of the imaging system 3. Furthermore, the slit light is typically visible light, but may also be infrared light, or a mixture of visible light and infrared light.

制御部7は、撮影系3を制御して、被検眼Eの前眼部の動画撮影を開始させる(撮影制御)。なお、アライメント制御の実行前に、又は、アライメント制御の実行中に、撮影制御を行ってもよい。典型的には、スリット光照射制御と同時に、又は、スリット光照射制御よりも後に、撮影制御が実行される。 The control unit 7 controls the imaging system 3 to start imaging of the anterior segment of the subject's eye E (imaging control). Note that imaging control may be performed before or during the execution of alignment control. Typically, imaging control is performed simultaneously with or after slit light irradiation control.

アライメント制御、スリット光照射制御、及び撮影制御の実行後、制御部7は、移動機構6を制御して、照明系2及び撮影系3の移動を開始する(移動制御)。移動制御により、照明系2及び撮影系3が一体的に移動される。つまり、照明系2と撮影系3との相対位置(角度θなど)を維持しつつ照明系2及び撮影系3が移動される。典型的には、前述したシャインプルーフの条件が満足された状態を維持しつつ照明系2及び撮影系3が移動される。照明系2及び撮影系3の移動は、前述したスキャン開始位置から所定のスキャン終了位置まで行われる。スキャン終了位置は、例えば、スキャン開始位置と同様に、X方向において第1端部の反対側の角膜Cの端部(第2端部)に相当する位置、又は、それよりも被検眼Eの軸から離れた位置である。このような場合、スキャン開始位置からスキャン終了位置までの範囲がスキャン範囲となる。 After performing the alignment control, the slit light irradiation control, and the photographing control, the control unit 7 controls the moving mechanism 6 to start moving the illumination system 2 and the photographing system 3 (movement control). The movement control moves the illumination system 2 and the photographing system 3 as a unit. That is, the illumination system 2 and the photographing system 3 are moved while maintaining the relative position (angle θ, etc.) between the illumination system 2 and the photographing system 3. Typically, the illumination system 2 and the photographing system 3 are moved while maintaining a state in which the above-mentioned Scheimpflug condition is satisfied. The illumination system 2 and the photographing system 3 are moved from the above-mentioned scan start position to a predetermined scan end position. The scan end position is, for example, a position corresponding to the end (second end) of the cornea C opposite the first end in the X direction, similar to the scan start position, or a position further away from the axis of the subject's eye E. In such a case, the range from the scan start position to the scan end position is the scan range.

典型的には、X方向を幅方向とし且つY方向を長手方向とするスリット光を前眼部に照射しつつ、且つ、照明系2及び撮影系3をX方向に移動しつつ、撮影系3による動画撮影が実行される。 Typically, a slit of light with the X direction as the width direction and the Y direction as the length direction is irradiated onto the anterior segment, and the illumination system 2 and the imaging system 3 are moved in the X direction while the imaging system 3 captures a moving image.

ここで、スリット光の長さ(つまり、Y方向におけるスリット光の寸法)は、例えば、被検眼Eの表面において角膜Cの径以上に設定される。すなわち、スリット光の長さは、Y方向における角膜径以上に設定されている。また、前述のように、移動機構6による照明系2及び撮影系3の移動距離(つまり、スキャン範囲)は、X方向における角膜径以上に設定されている。これにより、少なくとも角膜C全体をスリット光でスキャンすることができる。 Here, the length of the slit light (i.e., the dimension of the slit light in the Y direction) is set, for example, to be greater than or equal to the diameter of the cornea C on the surface of the subject's eye E. That is, the length of the slit light is set to be greater than or equal to the corneal diameter in the Y direction. Also, as described above, the movement distance of the illumination system 2 and the imaging system 3 by the movement mechanism 6 (i.e., the scanning range) is set to be greater than or equal to the corneal diameter in the X direction. This makes it possible to scan at least the entire cornea C with the slit light.

このようなスキャンを実行することにより、スリット光の照射位置が異なる複数の前眼部画像が得られる。換言すると、スリット光の照射位置がX方向に移動する様が描写された動画像が得られる。このような複数の前眼部画像(つまり、動画像を構成するフレーム群)の例を図5に示す。 By performing such a scan, multiple anterior eye images with different irradiation positions of the slit light are obtained. In other words, a moving image is obtained that depicts the irradiation position of the slit light moving in the X direction. An example of multiple such anterior eye images (i.e., a group of frames that make up a moving image) is shown in Figure 5.

図5は、複数の前眼部画像(フレーム群、画像群)F1、F2、F3、・・・、FNを示す。これら前眼部画像Fn(n=1、2、・・・、N)の添字nは、時系列順序を表している。つまり、第n番目に取得された前眼部画像が符号Fnで表される。前眼部画像Fnには、スリット光照射領域Anが含まれている。図5に示すように、スリット光照射領域A1、A2、A3、・・・、ANは、時系列に沿って右方向に移動している。 Figure 5 shows multiple anterior eye images (frame groups, image groups) F1, F2, F3, ..., FN. The subscript n of these anterior eye images Fn (n = 1, 2, ..., N) represents the chronological order. That is, the anterior eye image acquired nth is represented by the symbol Fn. The anterior eye image Fn includes a slit light irradiation area An. As shown in Figure 5, the slit light irradiation areas A1, A2, A3, ..., AN move to the right in the chronological order.

図5に示す例においては、スリット光の長手方向(長さ方向)がY方向(上下方向、体軸方向)に一致し、短手方向(幅方向)がX方向(左右方向、横方向)に一致し、スリット光の移動方向がX方向に一致している。また、スキャン開始位置は角膜Cの第1端部(左端)よりも外側(左側)の位置であり、スキャン終了位置は角膜Cの第2端部(右端)よりも外側(右側)の位置である。このような態様のスキャンによれば、角膜C全体を含む3次元領域を撮影することができる。なお、スキャン開始位置及び/又はスキャン終了位置は本例に限定されず、例えば、スキャン開始位置及び/又はスキャン終了位置がX方向における角膜Cの端部であってよい。また、スリット光の向き、スリット光の移動方向、スキャンの回数などの各種スキャンパラメータについても、任意に設定することが可能である。 In the example shown in FIG. 5, the longitudinal direction (length direction) of the slit light coincides with the Y direction (up-down direction, body axis direction), the transverse direction (width direction) coincides with the X direction (left-right direction, horizontal direction), and the moving direction of the slit light coincides with the X direction. In addition, the scan start position is a position outside (left side) of the first end (left end) of the cornea C, and the scan end position is a position outside (right side) of the second end (right end) of the cornea C. According to such a scanning mode, a three-dimensional region including the entire cornea C can be photographed. Note that the scan start position and/or scan end position are not limited to this example, and for example, the scan start position and/or scan end position may be the end of the cornea C in the X direction. In addition, various scanning parameters such as the direction of the slit light, the moving direction of the slit light, and the number of scans can also be set arbitrarily.

<データ処理部8>
データ処理部8は、各種のデータ処理を実行する。処理されるデータは、スリットランプ顕微鏡システム1により取得されたデータ、及び、外部から入力されたデータのいずれでもよい。データ処理部8は、撮影系3によって取得された画像を処理することができる。
<Data Processing Unit 8>
The data processing unit 8 executes various types of data processing. The data to be processed may be either data acquired by the slit lamp microscope system 1 or data input from the outside. The data processing unit 8 can process images acquired by the imaging system 3.

データ処理部8は、プロセッサ、主記憶装置、補助記憶装置などを含む。補助記憶装置には、データ処理プログラム等が記憶されている。データ処理プログラム等は、機械学習によって構築されたモデル(学習済みモデル、推論モデルなど)を含んでいてもよい。データ処理プログラム等は、スリットランプ顕微鏡システム1がアクセス可能なコンピュータや記憶装置に記憶されていてもよい。データ処理部8の機能は、データ処理プログラム等のソフトウェアと、プロセッサ等のハードウェアとの協働によって実現される。 The data processing unit 8 includes a processor, a main memory device, an auxiliary memory device, etc. The auxiliary memory device stores a data processing program, etc. The data processing program, etc. may include a model constructed by machine learning (a trained model, an inference model, etc.). The data processing program, etc. may be stored in a computer or a memory device accessible to the slit lamp microscope system 1. The functions of the data processing unit 8 are realized by cooperation between software such as the data processing program and hardware such as a processor.

図1Bに示す例示的なデータ処理部8は、画像群処理部80と、加工画像構築部85と、関心位置情報取得部86と、特定部87と、解析部88と、更新部89とを含む。特定部87及び解析部88は、画像解析部として機能する。 The exemplary data processing unit 8 shown in FIG. 1B includes an image group processing unit 80, a processed image construction unit 85, a position of interest information acquisition unit 86, an identification unit 87, an analysis unit 88, and an update unit 89. The identification unit 87 and the analysis unit 88 function as an image analysis unit.

<画像群処理部80>
画像群処理部80は、スリット光を用いた前眼部スキャンで収集された画像群の少なくとも一部の画像を処理する。画像群処理部80の幾つかの例を説明する。図6A、図6B、図6C、及び図6Dは、それぞれ、画像群処理部80の第1、第2、第3、及び第4の例である画像群処理部80A、80B、80C、及び80Dを示す。なお、画像群処理部80の構成はこれらに限定されない。例えば、画像群処理部80は、4つの画像群処理部80A、80B、80C、及び80Dのいずれか2つ以上の組み合わせを含んでいてもよい。また、同じ種類の結果又は類似の種類の結果を得るための任意の要素を画像群処理部80に設けることが可能である。
<Image Group Processing Unit 80>
The image group processor 80 processes at least some of the images collected by the anterior eye scan using slit light. Several examples of the image group processor 80 will be described. Figures 6A, 6B, 6C, and 6D show image group processors 80A, 80B, 80C, and 80D, which are first, second, third, and fourth examples of the image group processor 80, respectively. Note that the configuration of the image group processor 80 is not limited to these. For example, the image group processor 80 may include a combination of any two or more of the four image group processors 80A, 80B, 80C, and 80D. In addition, it is possible to provide the image group processor 80 with any element for obtaining the same type of result or a similar type of result.

本態様のスリットランプ顕微鏡システム1は、被検眼Eの前眼部に1回以上のスキャンを適用する。各スキャンにより、図5に示す複数の前眼部画像F1~FNのような画像群が得られる。画像群処理部80は、このようにして取得された1つ以上の画像群に処理を施すことができる。 The slit lamp microscope system 1 of this embodiment applies one or more scans to the anterior segment of the subject's eye E. Each scan results in an image group such as the multiple anterior segment images F1 to FN shown in FIG. 5. The image group processing unit 80 can process one or more image groups thus obtained.

スリットランプ顕微鏡システム1は、2回以上のスキャンを前眼部に適用可能であってよい。例えば、第1回目のスキャンで良好な画像群が得られない場合に、第2回目のスキャンが実行される。より一般に、第1回目~第v回目のスキャンで良好な一連の画像が得られなかった場合に、第v+1回目のスキャンが実行される(vは1以上の整数)。幾つかの例示的な態様では、第1回目~第v回目のv回のスキャンで得られたv個の画像群から良好な一連の画像(画像セット)が得られない場合に、第v+1回目のスキャンが実行される。他の幾つかの例示的な態様では、第1回目~第v回目のv回のスキャンで得られたv個の画像群のいずれもが良好な画像セットでない場合に、第v+1回目のスキャンが実行される。なお、2回以上のスキャンを実行する態様はこれらに限定されない。 The slit lamp microscope system 1 may be capable of applying two or more scans to the anterior segment. For example, if a good set of images is not obtained in the first scan, a second scan is performed. More generally, if a good set of images is not obtained in the first through v scans, a v+1 scan is performed (v is an integer equal to or greater than 1). In some exemplary aspects, if a good set of images (image set) is not obtained from the v image sets obtained in the first through v scans, a v+1 scan is performed. In some other exemplary aspects, if none of the v image sets obtained in the first through v scans is a good image set, a v+1 scan is performed. Note that the manner in which two or more scans are performed is not limited to these.

2回以上のスキャンを実行する場合、これらのスキャンの開始位置及び終了位置(つまりスキャン範囲)は同じでもよいし、開始位置及び終了位置の一方又は双方が異なってもよい。典型的には、2回以上のスキャンは、同じスキャン範囲に対して適用される。それにより、図5に示す複数の前眼部画像F1~FNのような画像群が、スキャン回数と同じ個数だけ取得される。 When performing two or more scans, the start and end positions of these scans (i.e., the scan range) may be the same, or one or both of the start and end positions may be different. Typically, two or more scans are applied to the same scan range. As a result, a group of images such as the multiple anterior eye images F1 to FN shown in FIG. 5 is obtained in the same number as the number of scans.

被検眼Eの眼球運動などを考慮すると、典型的には、スキャン範囲(スキャン開始位置、スキャン終了位置)は、前眼部における位置や範囲ではなく、スリットランプ顕微鏡システム1の動作によって定義される。例えば、スキャンにおける照明系2及び撮影系3の移動の始点がスキャン開始位置とされ、終点がスキャン終了位置とされる。 Taking into consideration the eye movement of the subject's eye E, the scan range (scan start position, scan end position) is typically defined by the operation of the slit lamp microscope system 1, not by the position or range in the anterior segment. For example, the start point of the movement of the illumination system 2 and the imaging system 3 during scanning is set as the scan start position, and the end point is set as the scan end position.

一方、前眼部における位置や範囲によってスキャン範囲を定義することも可能である。この場合、被検眼Eの動きに追従するように照明系2及び撮影系3を移動させる動作(トラッキング)が適用される。本例のスリットランプ顕微鏡システム1は、例えば従来と同様のトラッキング機能を備える。トラッキング機能は、例えば、前眼部の動画撮影と、各フレームからのランドマークの抽出と、ランドマークを用いたフレーム間の偏位の算出と、偏位を打ち消すための照明系2及び撮影系3の移動制御とを含む。 On the other hand, it is also possible to define the scan range based on the position and range in the anterior segment. In this case, an operation (tracking) is applied in which the illumination system 2 and the imaging system 3 are moved so as to follow the movement of the subject's eye E. The slit lamp microscope system 1 of this example has, for example, a tracking function similar to that of a conventional system. The tracking function includes, for example, video recording of the anterior segment, extraction of landmarks from each frame, calculation of deviation between frames using the landmarks, and movement control of the illumination system 2 and the imaging system 3 to cancel out the deviation.

スキャン範囲の定義(設定)に関する他の例として、既に収集された画像に対してスキャン範囲を設定することが可能である。すなわち、スキャン範囲の設定を事後的に(スキャン後に)行うように構成することができる。なお、本例におけるスキャン範囲は、後の処理に提供される画像の範囲を表すものである。 As another example of defining (setting) the scan range, it is possible to set the scan range for an image that has already been collected. In other words, it is possible to configure the scan range to be set retroactively (after scanning). Note that the scan range in this example represents the range of the image that will be provided for subsequent processing.

このような事後的なスキャン範囲設定の第1の例を説明する。本例のスリットランプ顕微鏡は、前眼部撮影が可能であり、且つ、前眼部撮影用光学系とスキャン光学系(照明系2及び撮影系3)との位置関係を認識可能であるとする。本例では、まず、前眼部の十分広い範囲(特にX方向及びY方向)をスキャンして画像群(広域画像群)を収集しつつ、前眼部撮影を実行する。次に、前眼部撮影で得られた前眼部画像に対してスキャン範囲が設定される。この設定は手動及び自動のいずれで行われてもよい。自動設定は、例えば、前眼部画像を解析してランドマークを検出する処理と、このランドマークを参照してスキャン範囲を設定する処理とを含む。このランドマークは、例えば、角膜縁、隅角、又は瞳孔縁であってよい。スキャン範囲が設定されると、上記した光学系の位置関係に基づいて、このスキャン範囲に相当する各広域画像の部分領域が特定される。最後に、この特定された部分領域を広域画像からクロッピングすることによって、当該スキャン範囲に相当する画像が形成される。これにより、設定されたスキャン範囲に対応する画像群が得られる。本例において、被検眼の固視が安定している場合(又は、そのように仮定する場合若しくは仮定できる場合)などには、前眼部撮影は静止画撮影であってよい。前眼部撮影が動画撮影である場合には、例えばスキャンと動画撮影との制御(同期情報など)に基づいて広域画像群と動画像中のフレーム群とが対応付けられ、対応付けられた広域画像とフレームとのペア毎に上記と同様の処理が実行される。 A first example of such a post-event scan range setting will be described. The slit lamp microscope of this example is capable of anterior segment photography, and is capable of recognizing the positional relationship between the anterior segment photography optical system and the scanning optical system (illumination system 2 and photography system 3). In this example, first, an image group (wide-area image group) is collected by scanning a sufficiently wide range (particularly in the X direction and Y direction) of the anterior segment, while performing anterior segment photography. Next, a scan range is set for the anterior segment image obtained by anterior segment photography. This setting may be performed either manually or automatically. The automatic setting includes, for example, a process of analyzing the anterior segment image to detect a landmark, and a process of setting the scan range by referring to this landmark. This landmark may be, for example, the corneal limbus, the angle, or the pupil margin. When the scan range is set, a partial area of each wide-area image corresponding to this scan range is specified based on the positional relationship of the optical system described above. Finally, an image corresponding to the scan range is formed by cropping this specified partial area from the wide-area image. As a result, a group of images corresponding to the set scan range is obtained. In this example, when the fixation of the subject's eye is stable (or when it is assumed or can be assumed that the fixation is stable), the anterior segment may be captured as still images. When the anterior segment is captured as video, the wide-area image group and the frame group in the video are associated with each other based on, for example, control of the scan and video capture (synchronization information, etc.), and the same processing as described above is performed for each associated pair of wide-area image and frame.

事後的なスキャン範囲設定の第2の例を説明する。本例では、前眼部撮影を並行的に行わなくてもよく、前眼部の十分広い範囲(特にX方向及びY方向)をスキャンして広域画像群が収集される。次に、各広域画像に対して、所望のスキャン範囲に相当する部分領域が指定される。この指定は手動及び自動のいずれで行われてもよい。自動指定は、例えば、広域画像を解析してランドマーク(例えば、角膜縁又は隅角)を検出する処理と、このランドマークを参照してスキャン範囲を設定する処理とを含む。また、いずれかの広域画像(基準広域画像)に対して手動でランドマークを指定し、この基準広域画像とそれに隣接する広域画像とを解析して当該隣接広域画像にランドマークを指定してもよい。このような処理を順次に適用することで全ての広域画像に対してランドマークを指定することができる。更に、ランドマークに基づいてスキャン範囲に相当する広域画像の部分領域を特定し、この特定された部分領域を広域画像からクロッピングすることによって当該スキャン範囲に相当する画像を形成することができる。これにより、設定されたスキャン範囲に対応する画像群が得られる。 A second example of the post-scan range setting will be described. In this example, the anterior eye does not need to be photographed in parallel, and a sufficiently wide range of the anterior eye (particularly in the X and Y directions) is scanned to collect a group of wide-area images. Next, a partial area corresponding to the desired scan range is specified for each wide-area image. This specification may be performed either manually or automatically. The automatic specification includes, for example, a process of analyzing the wide-area image to detect a landmark (for example, the corneal limbus or the iridocorneal angle) and a process of setting the scan range by referring to the landmark. In addition, a landmark may be manually specified for one of the wide-area images (reference wide-area image), and the reference wide-area image and an adjacent wide-area image may be analyzed to specify a landmark for the adjacent wide-area image. By sequentially applying such processing, it is possible to specify landmarks for all wide-area images. Furthermore, a partial area of the wide-area image corresponding to the scan range can be specified based on the landmark, and an image corresponding to the scan range can be formed by cropping the specified partial area from the wide-area image. This allows a group of images corresponding to the set scan range to be obtained.

画像群処理部80の第1の例を説明する。図6Aに示す画像群処理部80Aは、画像群評価部81を含む。画像群評価部81は、被検眼Eに対する1回のスキャンで収集された画像群の品質を評価する。幾つかの例示的な態様において、画像群評価部81は、画像群が所定の条件を満足するか否か判定するように構成されており、典型的には、画像群に含まれるそれぞれの画像が所定の条件を満足するか否か判定するように構成されている。 A first example of the image group processing unit 80 will be described. The image group processing unit 80A shown in FIG. 6A includes an image group evaluation unit 81. The image group evaluation unit 81 evaluates the quality of an image group collected in one scan of the subject's eye E. In some exemplary aspects, the image group evaluation unit 81 is configured to determine whether the image group satisfies a predetermined condition, and is typically configured to determine whether each image included in the image group satisfies the predetermined condition.

所定の条件(画像群評価条件)は、例えば、読影や診断を有効に行うために必要とされる画像品質に関する条件であり、例えば、被検眼Eに関する条件、スリットランプ顕微鏡システム1に関する条件、環境に関する条件などがある。画像群評価条件は、例えば、「評価対象の画像が、瞬きの影響を受けていないこと(瞬き条件)」及び「評価対象の画像が、眼球運動の影響を受けていないこと(眼球運動条件)」のいずれか一方及び双方を含んでいてよい。また、画像群評価条件は、画像品質評価に関する任意の指標であってよく、例えば、明るさ、コントラスト、ノイズ、信号対雑音比(SNR)、階調再現(tone reproduction)、ダイナミックレンジ、シャープネス、口径食(ケラレ)、収差(球面収差、非点収差、コマ収差、像面湾曲、歪曲収差、色収差など)、色精度(color accuracy)、露出精度(exposure accuracy)、レンズフレア、モアレ、及びアーティファクトのうちのいずれかを含んでいてよい。画像選択条件はこれらの例に限定されず、任意に選択されてよい。 The specified conditions (image group evaluation conditions) are, for example, conditions related to the image quality required for effective interpretation and diagnosis, such as conditions related to the subject's eye E, conditions related to the slit lamp microscope system 1, and conditions related to the environment. The image group evaluation conditions may include, for example, either or both of "the image to be evaluated is not affected by blinking (blink condition)" and "the image to be evaluated is not affected by eye movement (eye movement condition)." The image group evaluation conditions may be any index related to image quality evaluation, and may include, for example, any of brightness, contrast, noise, signal-to-noise ratio (SNR), tone reproduction, dynamic range, sharpness, vignetting, aberration (spherical aberration, astigmatism, coma aberration, field curvature, distortion aberration, chromatic aberration, etc.), color accuracy, exposure accuracy, lens flare, moire, and artifacts. The image selection conditions are not limited to these examples and may be selected arbitrarily.

瞬き条件について説明する。画像群に含まれる画像について、画像群評価部81は、例えば、被検眼Eの前眼部に照射されたスリット光の反射像が当該画像に含まれているか判定する。この判定は、瞬き中に撮影された画像にはスリット光の反射像が描出されないこと、及び、スリット光の反射像は他領域よりも顕著に明るく表現されることを利用した処理であり、例えば、当該画像における輝度分布に基づき実行される。 The blinking condition will now be described. For an image included in the image group, the image group evaluation unit 81 judges, for example, whether the image contains a reflected image of slit light irradiated onto the anterior segment of the subject's eye E. This judgment is a process that utilizes the fact that the reflected image of the slit light is not depicted in an image captured during a blink, and that the reflected image of the slit light is depicted significantly brighter than other regions, and is performed, for example, based on the luminance distribution in the image.

一例として、画像群評価部81は、当該画像から輝度ヒストグラムを作成し、所定閾値以上の輝度の画素が存在するか判断する。所定閾値以上の輝度が存在すると判定された場合、スリット光の反射像が当該画像に含まれていると判定される。本例は、処理が極めて簡便であるという利点を有するが、高輝度のノイズや外光の映り込みを誤検出するおそれがある。 As an example, the image group evaluation unit 81 creates a luminance histogram from the image and determines whether there are any pixels with a luminance equal to or greater than a predetermined threshold. If it is determined that there is a luminance equal to or greater than the predetermined threshold, it is determined that the image contains a reflected image of slit light. This example has the advantage that the processing is extremely simple, but there is a risk of false detection of high-luminance noise or reflections of external light.

他の例として、画像群評価部81は、当該画像から輝度ヒストグラムを作成し、所定閾値以上の輝度の画素が所定個数以上存在するか判定する。所定閾値以上の輝度の画素が所定個数以上存在するか判定すると判定された場合、スリット光の反射像が当該画像に含まれていると判定される。本例は、簡便な処理によって上記誤検出の防止を図ることができるという利点を有する。 As another example, the image group evaluation unit 81 creates a brightness histogram from the image and determines whether there are a predetermined number of pixels with a brightness equal to or greater than a predetermined threshold. If it is determined that there are a predetermined number of pixels with a brightness equal to or greater than a predetermined threshold, it is determined that the image contains a reflected image of slit light. This example has the advantage that the above-mentioned erroneous detection can be prevented by simple processing.

眼球運動条件について説明する。画像群に含まれる画像について、画像群評価部81は、例えば、当該画像とこれに隣接する画像との比較によって眼球運動の影響の有無を判定する。この判定は、動画撮影中に眼球運動が発生すると「画像の飛び」が生じることを利用した処理である。 Explains eye movement conditions. For an image included in an image group, the image group evaluation unit 81 determines whether or not the image is affected by eye movement by, for example, comparing the image with adjacent images. This determination is a process that utilizes the fact that "image jumps" occur when eye movement occurs during video capture.

一例として、画像群評価部81は、当該画像及び隣接画像のそれぞれからランドマークを検出し、これらランドマークの偏位量を算出し、この偏位量が所定閾値以上であるか判断する。偏位量が所定閾値以上であると判定された場合、眼球運動が発生したと判定される。ここで、ランドマークは、例えば、角膜、虹彩、瞳孔、隅角などであってよい。また、閾値は、例えば、撮影系3の撮影レートや、移動機構6による移動速度など、所定のスキャン条件に基づき算出される。 As an example, the image group evaluation unit 81 detects landmarks from each of the image in question and the adjacent images, calculates the amount of deviation of these landmarks, and determines whether this amount of deviation is equal to or greater than a predetermined threshold. If it is determined that the amount of deviation is equal to or greater than the predetermined threshold, it is determined that eye movement has occurred. Here, the landmarks may be, for example, the cornea, iris, pupil, or angle of the eye. In addition, the threshold is calculated based on predetermined scanning conditions, such as the shooting rate of the shooting system 3 and the moving speed of the moving mechanism 6.

他の例において、画像群評価部81は、1つの画像から眼球運動の有無を判定するように構成されてもよい。例えば、撮影系3の撮影レートが低速である場合において、高速な眼球運動が発生すると、画像に「ブレ」が生じることがある。画像群評価部81は、ブレ検出を利用することによって眼球運動の有無を判定することができる。ブレ検出は、典型的には、エッジ検出などの公知技術を用いて行われる。 In another example, the image group evaluation unit 81 may be configured to determine the presence or absence of eye movement from a single image. For example, when the shooting rate of the shooting system 3 is slow, rapid eye movement may cause "blur" in the image. The image group evaluation unit 81 can determine the presence or absence of eye movement by using blur detection. Blur detection is typically performed using known techniques such as edge detection.

画像群評価部81は、入力された画像が上記の画像選択条件を満足するか判定するための人工知能エンジンを含んでいてもよい。この人工知能エンジンは、典型的には、畳み込みニューラルネットワーク(CNN)を含み、この畳み込みニューラルネットワークは、スリットランプ顕微鏡により取得された多数の画像と、各画像が画像選択条件を満足するか否かの判定結果とを含む訓練データを用いて、事前に訓練される。なお、訓練データに含まれる画像は、スリットランプ顕微鏡により取得された画像に限定されず、例えば、他の眼科モダリティ(眼底カメラ、OCT装置、SLO、手術用顕微鏡など)により取得された画像、他の診療科の画像診断モダリティ(超音波診断装置、X線診断装置、X線CT装置、磁気共鳴イメージング(MRI)装置など)により取得された画像、実際の画像を加工して生成された画像、擬似的な画像などであってもよい。また、人工知能エンジンに用いられる手法や技術(例えば、ハードウェア、ソフトウェア、機械学習法、ニューラルネットワークの種類など)は任意である。 The image group evaluation unit 81 may include an artificial intelligence engine for determining whether the input image satisfies the above image selection conditions. This artificial intelligence engine typically includes a convolutional neural network (CNN), which is trained in advance using training data including a large number of images acquired by a slit lamp microscope and a determination result of whether each image satisfies the image selection conditions. The images included in the training data are not limited to images acquired by a slit lamp microscope, and may be, for example, images acquired by other ophthalmic modalities (fundus cameras, OCT devices, SLOs, surgical microscopes, etc.), images acquired by image diagnostic modalities of other medical departments (ultrasound diagnostic devices, X-ray diagnostic devices, X-ray CT devices, magnetic resonance imaging (MRI) devices, etc.), images generated by processing actual images, pseudo images, etc. In addition, the methods and technologies (for example, hardware, software, machine learning methods, types of neural networks, etc.) used in the artificial intelligence engine are arbitrary.

1回のスキャンで収集された画像群を構成する一連の画像は、スキャン範囲における複数の位置に関連付けられていてよい。この関連付けは、例えば、画像群処理部80により実行される。その具体例を説明する。X方向に沿ったスキャン範囲が(N-1)個の区間に区分され、スキャン開始位置が第1番目の位置に設定され、スキャン終了位置が第N番目の位置に設定される(Nは2以上の整数)。これにより、スキャン範囲にN個の位置が設定される。N個の位置をB1、B2、B3、・・・、BNで表す(図示せず)。N個の位置B1~BNの間隔は等しくてもよいし、異なっていてもよい。位置B1~BNの個数(N)は、例えば、スキャン開始位置、スキャン終了位置、スリット光の移動速度(スキャン速度)、撮影系3のフレームレートなどに基づいて設定される。本例で設定される位置B1~BNの個数(N)は、1回のスキャンで収集される画像の個数に等しい。なお、位置B1~BNの個数(N)は本例に限定されず、また、その設定方法も本例に限定されない。被検眼Eの前眼部に1回のスキャンが適用され、図5に示す画像群F1、F2、F3、・・・、FNが取得されたとする。画像群処理部80は、位置Bnに画像Fnを割り当てることができる。これにより、N個の位置Bn(n=1、2、・・・、N)に対応するN個の画像Fn(n=1、2、・・・、N)が得られる。 A series of images constituting an image group collected in one scan may be associated with multiple positions in the scan range. This association is performed, for example, by the image group processing unit 80. A specific example will be described. The scan range along the X direction is divided into (N-1) sections, the scan start position is set to the first position, and the scan end position is set to the Nth position (N is an integer equal to or greater than 2). This sets N positions in the scan range. The N positions are represented by B1, B2, B3, ..., BN (not shown). The intervals between the N positions B1 to BN may be equal or different. The number (N) of positions B1 to BN is set based on, for example, the scan start position, the scan end position, the moving speed (scanning speed) of the slit light, the frame rate of the imaging system 3, and the like. The number (N) of positions B1 to BN set in this example is equal to the number of images collected in one scan. Note that the number (N) of positions B1 to BN is not limited to this example, and the setting method is also not limited to this example. Assume that one scan is applied to the anterior segment of the subject's eye E, and a group of images F1, F2, F3, ..., FN shown in FIG. 5 is obtained. The image group processing unit 80 can assign an image Fn to a position Bn. This results in N images Fn (n = 1, 2, ..., N) corresponding to the N positions Bn (n = 1, 2, ..., N).

画像群は、一連の画像のみを含んでいてもよいし、それ以外の情報を更に含んでいてもよい。一連の画像とともに画像群に含まれる情報の例として、被検者情報、被検眼情報、撮影日時、撮影条件など、各種の付帯情報がある。また、他のモダリティで得られた画像や、検査装置により取得された検査データを、画像群に含めることも可能である。画像群評価部81の構成や動作については、その幾つかの例を図7A~図7Dを参照しつつ後述する。 The image group may include only a series of images, or may further include other information. Examples of information included in the image group along with the series of images include various types of additional information, such as subject information, information about the examined eye, shooting date and time, and shooting conditions. It is also possible to include images obtained with other modalities and examination data acquired by an examination device in the image group. Some examples of the configuration and operation of the image group evaluation unit 81 will be described later with reference to Figures 7A to 7D.

画像群処理部80の第2の例を説明する。本例の有効性は、特に、被検眼Eに対して2回以上のスキャンが適用される場合に発揮される。図6Bに示す画像群処理部80Bは、図6Aと同様の画像群評価部81に加えて、画像セット作成部82を含む。画像群処理部80Bには、被検眼Eに適用された2回以上のスキャンで収集された2以上の画像群が提供される。本例の画像群評価部81は、これらの画像群のそれぞれに対して品質評価を行ってもよいし、最初のスキャン(第1回目のスキャン)で収集された画像群に対してのみ品質評価を行ってもよい。画像セット作成部82は、画像群処理部80Bに入力された2以上の画像群から、スキャン範囲に対応する一連の画像を選択して画像セットを作成する。 A second example of the image group processing unit 80 will be described. The effectiveness of this example is particularly evident when two or more scans are applied to the subject's eye E. The image group processing unit 80B shown in FIG. 6B includes an image set creation unit 82 in addition to the image group evaluation unit 81 similar to that in FIG. 6A. The image group processing unit 80B is provided with two or more image groups collected in two or more scans applied to the subject's eye E. The image group evaluation unit 81 in this example may perform quality evaluation on each of these image groups, or may perform quality evaluation only on the image group collected in the initial scan (first scan). The image set creation unit 82 selects a series of images corresponding to the scan range from the two or more image groups input to the image group processing unit 80B to create an image set.

画像セットを構成する一連の画像が表現する範囲は、例えば、2以上のスキャンのうちのいずれか1つのスキャンが適用された3次元領域であってもよいし、2以上のスキャンのうちの少なくとも2つのスキャンにおけるスキャン範囲に基づき設定される3次元領域であってもよい。前者の例として、2以上のスキャンがそれぞれ適用された2以上のスキャン範囲において最大のスキャン範囲又は最小のスキャン範囲を採用することができる。後者の例として、少なくとも2つのスキャン範囲の和集合又は積集合を採用することができる。 The range represented by the series of images constituting the image set may be, for example, a three-dimensional area to which any one of the two or more scans is applied, or may be a three-dimensional area set based on the scan ranges in at least two of the two or more scans. As an example of the former, the maximum or minimum scan range among the two or more scan ranges to which the two or more scans are respectively applied may be adopted. As an example of the latter, the union or intersection of at least two scan ranges may be adopted.

また、画像セットは、当該一連の画像のみを含んでいてもよいし、それ以外の情報を更に含んでいてもよい。一連の画像とともに画像セットに含まれる情報の例として、被検者情報、被検眼情報、撮影日時、撮影条件など、各種の付帯情報がある。また、他のモダリティで得られた画像や、検査装置により取得された検査データを、画像セットに含めることも可能である。 The image set may include only the series of images, or may include other information as well. Examples of information included in the image set along with the series of images include various types of additional information, such as subject information, information about the examined eye, shooting date and time, and shooting conditions. Images obtained with other modalities and examination data acquired by an examination device can also be included in the image set.

画像群処理部80の第3の例を説明する。第2の例と同様に、本例の有効性は、特に、被検眼Eに対して2回以上のスキャンが適用される場合に発揮される。図6Cに示す画像群処理部80Cは、図6Aと同様の画像群評価部81に加えて、図6Bと同様の画像セット作成部82を含むが、本例の画像セット作成部82は選択部821を含んでいる。 A third example of the image group processing unit 80 will be described. As with the second example, the effectiveness of this example is particularly evident when two or more scans are applied to the subject eye E. The image group processing unit 80C shown in FIG. 6C includes an image group evaluation unit 81 similar to that in FIG. 6A, as well as an image set creation unit 82 similar to that in FIG. 6B, but the image set creation unit 82 in this example includes a selection unit 821.

画像群処理部80Cには、被検眼Eに適用された2回以上のスキャンで収集された2以上の画像群が提供される。本例の画像群評価部81は、これらの画像群のそれぞれに対して品質評価を行ってもよいし、最初のスキャン(第1回目のスキャン)で収集された画像群に対してのみ品質評価を行ってもよい。画像セット作成部82は、画像群処理部80Bに入力された2以上の画像群から、スキャン範囲に対応する一連の画像を選択して画像セットを作成する。この画像セット作成において、選択部821は、2以上の画像群のうちから所定の条件を満足する画像を選択する。 The image group processing unit 80C is provided with two or more image groups collected in two or more scans applied to the subject's eye E. The image group evaluation unit 81 in this example may perform a quality evaluation on each of these image groups, or may perform a quality evaluation only on the image group collected in the initial scan (first scan). The image set creation unit 82 selects a series of images corresponding to the scan range from the two or more image groups input to the image group processing unit 80B to create an image set. In creating this image set, the selection unit 821 selects images that satisfy predetermined conditions from the two or more image groups.

所定の条件(画像選択条件)は、前述した画像群評価条件と同じであってもよいし、異なっていてもよい。例えば、画像群評価部81により一つひとつの画像の品質評価が行われた後に、2以上の画像群が選択部821に提供されるように構成されている場合、選択部821は、画像配列に関する条件(例えば、瞬き条件、眼球運動条件など)を考慮して画像選択を行うように構成されてよい。なお、画像選択条件はこれらの例に限定されず、また、画像群評価条件と画像選択条件との間の関係もこれらの例に限定されない。 The specified conditions (image selection conditions) may be the same as the image group evaluation conditions described above, or may be different. For example, if the image group evaluation unit 81 is configured to provide two or more image groups to the selection unit 821 after the quality evaluation of each image is performed by the image group evaluation unit 81, the selection unit 821 may be configured to select images taking into consideration conditions related to the image arrangement (e.g., blinking conditions, eye movement conditions, etc.). Note that the image selection conditions are not limited to these examples, and the relationship between the image group evaluation conditions and the image selection conditions is not limited to these examples.

以下、選択部821が瞬き条件を考慮する場合と眼球運動条件を考慮する場合とについて説明する。なお、これら以外の条件を考慮する場合などについては、画像群評価部81に関する後述の具体例(図7A~図7Dを参照)と同様の処理を選択部821は実行することができる。 The following describes the cases where the selection unit 821 takes blink conditions into account and the cases where it takes eye movement conditions into account. Note that when other conditions are taken into account, the selection unit 821 can execute processing similar to the specific examples (see Figures 7A to 7D) related to the image group evaluation unit 81 described below.

瞬き条件を考慮した画像選択について説明する。なお、瞬き条件は「評価対象の画像が、瞬きの影響を受けていないこと」を確認するための条件である。2以上の画像群に含まれる画像について、選択部821は、例えば、被検眼Eの前眼部に照射されたスリット光の反射像が当該画像に含まれているか判定する。この判定は、瞬き中に撮影された画像にはスリット光の反射像が描出されないこと、及び、スリット光の反射像は他領域よりも顕著に明るく表現されることを利用した処理であり、例えば、当該画像における輝度分布に基づき実行される。 Image selection that takes blinking conditions into consideration will now be described. Note that blinking conditions are conditions for confirming that "the image to be evaluated is not affected by blinking." For an image included in two or more image groups, the selection unit 821 determines, for example, whether the image contains a reflected image of slit light irradiated onto the anterior segment of the subject's eye E. This determination is a process that utilizes the fact that the reflected image of the slit light is not depicted in an image captured during a blink, and that the reflected image of the slit light is depicted significantly brighter than other regions, and is performed, for example, based on the luminance distribution in the image.

一例として、選択部821は、当該画像から輝度ヒストグラムを作成し、所定閾値以上の輝度の画素が存在するか判断する。所定閾値以上の輝度が存在すると判定された場合、スリット光の反射像が当該画像に含まれていると判定される。本例は、処理が極めて簡便であるという利点を有するが、高輝度のノイズや外光の映り込みを誤検出するおそれがある。 As an example, the selection unit 821 creates a luminance histogram from the image and determines whether there are pixels with a luminance equal to or greater than a predetermined threshold. If it is determined that there is a luminance equal to or greater than the predetermined threshold, it is determined that the image contains a reflected image of slit light. This example has the advantage that the processing is extremely simple, but there is a risk of false detection of high-luminance noise or reflections of external light.

他の例として、選択部821は、当該画像から輝度ヒストグラムを作成し、所定閾値以上の輝度の画素が所定個数以上存在するか判定する。所定閾値以上の輝度の画素が所定個数以上存在するか判定すると判定された場合、スリット光の反射像が当該画像に含まれていると判定される。本例は、簡便な処理によって上記誤検出の防止を図ることができるという利点を有する。 As another example, the selection unit 821 creates a luminance histogram from the image and determines whether there are a predetermined number of pixels with a luminance equal to or greater than a predetermined threshold. If it is determined that there are a predetermined number of pixels with a luminance equal to or greater than a predetermined threshold, it is determined that the image contains a reflected image of slit light. This example has the advantage that the above-mentioned erroneous detection can be prevented by simple processing.

眼球運動条件を考慮した画像選択について説明する。なお、眼球運動条件は「評価対象の画像が、眼球運動の影響を受けていないこと」を確認するための条件である。2以上の画像群に含まれる画像について、選択部821は、例えば、当該画像とこれに隣接する画像との比較によって眼球運動の影響の有無を判定する。この判定は、動画撮影中に眼球運動が発生すると「画像の飛び」が生じることを利用した処理である。 Image selection that takes into account eye movement conditions is described below. The eye movement conditions are conditions for confirming that "the image to be evaluated is not affected by eye movement." For an image included in two or more image groups, the selection unit 821 determines whether or not the image is affected by eye movement, for example, by comparing the image with adjacent images. This determination is a process that utilizes the fact that "image jumps" occur when eye movement occurs during video capture.

一例として、選択部821は、当該画像及び隣接画像のそれぞれからランドマークを検出し、これらランドマークの偏位量を算出し、この偏位量が所定閾値以上であるか判断する。偏位量が所定閾値以上であると判定された場合、眼球運動が発生したと判定される。ここで、ランドマークは、例えば、角膜、虹彩、瞳孔、隅角などであってよい。また、閾値は、例えば、撮影系3の撮影レートや、移動機構6による移動速度など、所定のスキャン条件に基づき算出される。 As an example, the selection unit 821 detects landmarks from each of the image in question and the adjacent image, calculates the amount of deviation of these landmarks, and determines whether the amount of deviation is equal to or greater than a predetermined threshold. If it is determined that the amount of deviation is equal to or greater than the predetermined threshold, it is determined that eye movement has occurred. Here, the landmarks may be, for example, the cornea, iris, pupil, or angle of the eye. Furthermore, the threshold is calculated based on predetermined scanning conditions, such as the imaging rate of the imaging system 3 and the moving speed of the moving mechanism 6.

他の例において、選択部821は、1つの画像から眼球運動の有無を判定するように構成されてもよい。例えば、撮影系3の撮影レートが低速である場合において、高速な眼球運動が発生すると、画像に「ブレ」が生じることがある。選択部821は、ブレ検出を利用することによって眼球運動の有無を判定することができる。ブレ検出は、典型的には、エッジ検出などの公知技術を用いて行われる。 In another example, the selection unit 821 may be configured to determine the presence or absence of eye movement from one image. For example, when the shooting rate of the shooting system 3 is slow, the occurrence of rapid eye movement may cause "blur" in the image. The selection unit 821 can determine the presence or absence of eye movement by using blur detection. Blur detection is typically performed using a known technique such as edge detection.

画像群評価部81の場合と同様に、選択部821は、入力された画像が上記の画像選択条件を満足するか判定するための人工知能エンジンを含んでいてもよい。 As with the image group evaluation unit 81, the selection unit 821 may include an artificial intelligence engine for determining whether the input images satisfy the above image selection conditions.

画像セット作成部82により作成される画像セットに含まれる一連の画像は、スキャン範囲における複数の位置に関連付けられていてよい。例えば、選択部821は、スキャン範囲における複数の位置のそれぞれに1以上の画像を割り当てるように画像の選択を行うように構成されていてよい。 A series of images included in the image set created by the image set creation unit 82 may be associated with multiple positions in the scan range. For example, the selection unit 821 may be configured to select images so as to assign one or more images to each of multiple positions in the scan range.

具体例を説明する。前述したように、X方向に沿ったスキャン範囲が(N-1)個の区間に区分され、スキャン開始位置が第1番目の位置に設定され、スキャン終了位置が第N番目の位置に設定される(Nは2以上の整数)。これにより、スキャン範囲にN個の位置が設定される。N個の位置をB1、B2、B3、・・・、BNで表す。 A specific example will be described. As described above, the scan range along the X direction is divided into (N-1) sections, the scan start position is set to the first position, and the scan end position is set to the Nth position (N is an integer equal to or greater than 2). In this way, N positions are set in the scan range. The N positions are represented as B1, B2, B3, ..., BN.

被検眼Eの前眼部に2回以上のスキャンが適用された結果、図5に示す画像群F1、F2、F3、・・・、FNが取得されたとする。なお、図5に示すN個の画像F1~FNは、上記の説明では1回のスキャンで得られた画像群とされているが、本明細書では、説明の簡略化のために、図5に示すN個の画像F1~FNを任意の画像群(複数の画像)として参照することがある。例えば、本例の説明では、画像セットに含まれる一連の画像としてN個の画像F1~FNが参照される。 Assume that two or more scans are applied to the anterior segment of the subject's eye E, resulting in the acquisition of a group of images F1, F2, F3, ..., FN shown in FIG. 5. Note that in the above description, the N images F1 to FN shown in FIG. 5 are considered to be a group of images obtained from a single scan, but in this specification, for the sake of simplicity, the N images F1 to FN shown in FIG. 5 may be referred to as an arbitrary group of images (multiple images). For example, in the description of this example, the N images F1 to FN are referred to as a series of images included in an image set.

このようなN個の位置をB1~BN及びN個の画像F1~FNについて、選択部821は、位置Bnに画像Fnを割り当てることができる。これにより、N個の位置Bn(n=1、2、・・・、N)に対応するN個の画像Fn(n=1、2、・・・、N)が得られ、例えば、画像群Fnを「一連の画像」とする画像セットが作成される。 For such N positions B1 to BN and N images F1 to FN, the selection unit 821 can assign an image Fn to a position Bn. This provides N images Fn (n = 1, 2, ..., N) corresponding to the N positions Bn (n = 1, 2, ..., N), and creates an image set in which the image group Fn is a "series of images."

幾つかの例示的な態様では、第1回目のスキャンで得られた画像群の品質が良好でないと画像群評価部81により評価された場合、自動的に又はユーザーの指示に応じて第2回目のスキャンが行われる。前眼部に適用されるスキャンの回数が2回以上である場合、スリットランプ顕微鏡システム1は、前眼部に2回以上のスキャンを適用する動作と、それにより収集された2以上の画像群から一連の画像を選択する動作とを実行するが、これら動作の実行態様は任意であってよい。第1の例として、スリットランプ顕微鏡システム1は、第1回目のスキャンで得られた画像群の品質が良好でないと評価されたことに対応して、前眼部に対するスキャンと、このスキャンにより取得された画像群からの画像の選択とを、交互に繰り返すように構成されてよい。第2の例として、スリットランプ顕微鏡システム1は、第1回目のスキャンで得られた画像群の品質が良好でないと評価されたことに対応して、2回以上のスキャンをまとめて行った後に、それにより収集された2以上の画像群から一連の画像を選択するように構成されてよい。以下、これら2つの例について説明する。なお、画像群からの画像の選択の代わりに、又はそれに加えて、画像群評価部81による画像群の評価を行ってもよい。前述したように、画像群評価と画像選択とは、同様の処理、類似の処理、又は互換的な処理であってよい。幾つかの例示的な態様において、画像群評価として説明した事項を画像選択に適用することが可能であり、逆に、画像選択として説明した事項を画像群評価に適用することが可能である。 In some exemplary aspects, if the image group evaluation unit 81 evaluates that the quality of the image group obtained in the first scan is not good, a second scan is performed automatically or in response to a user's instruction. If the number of scans applied to the anterior segment is two or more, the slit lamp microscope system 1 performs an operation of applying two or more scans to the anterior segment and an operation of selecting a series of images from two or more image groups collected thereby, but the manner of performing these operations may be arbitrary. As a first example, the slit lamp microscope system 1 may be configured to alternately repeat a scan of the anterior segment and a selection of images from the image group acquired by this scan in response to the evaluation that the quality of the image group obtained in the first scan is not good. As a second example, the slit lamp microscope system 1 may be configured to perform two or more scans together and then select a series of images from two or more image groups collected thereby in response to the evaluation that the quality of the image group obtained in the first scan is not good. These two examples will be described below. Note that instead of or in addition to the selection of images from the image group, the image group evaluation unit 81 may evaluate the image group. As previously discussed, image group evaluation and image selection may be similar, analogous, or interchangeable processes. In some exemplary aspects, matters described as image group evaluation may be applied to image selection, and conversely, matters described as image selection may be applied to image group evaluation.

第1回目のスキャンで得られた画像群の品質が良好でないと画像群評価部81により評価された後に実行されるスキャン及び画像選択の態様の第1の例は、スキャンと画像選択との交互反復である。より具体的には、第1の例では、例えば、前眼部へのスキャンの適用と、このスキャンで得られた画像群からの画像の選択との組が、所定回数繰り返し実行される。つまり、第1の例では、第1番目の組の動作(スキャン及び画像選択)、第2番目の組の動作(スキャン及び画像選択)、・・・、第U番目の組の動作(スキャン及び画像選択)の順に、U個の組の動作が実行される(Uは1以上の整数)。また、この交互反復の前に行われた第1回目のスキャンと、第1回目のスキャンで得られた画像群の品質評価(画像群評価部81)との組を、第0番目の組の動作と呼ぶこととする。 A first example of the mode of scanning and image selection executed after the image group evaluation unit 81 evaluates that the quality of the image group obtained in the first scan is not good is alternating repetition of scanning and image selection. More specifically, in the first example, for example, a set of application of a scan to the anterior eye and selection of an image from the image group obtained by this scan is repeatedly executed a predetermined number of times. That is, in the first example, U sets of operations are executed in the order of the first set of operations (scanning and image selection), the second set of operations (scanning and image selection), ..., the Uth set of operations (scanning and image selection) (U is an integer equal to or greater than 1). In addition, the set of the first scan performed before this alternating repetition and the quality evaluation (image group evaluation unit 81) of the image group obtained in the first scan will be called the 0th set of operations.

ここで、第u番目の組におけるスキャンの回数は、1以上の任意の回数であってよい(u=0、1、・・・、U)。また、第u番目の組におけるスキャンの回数と、第u番目の組におけるスキャンの回数とは、等しくてもよいし、異なってもよい(u=0、1、・・・、U;u=0、1、・・・、U;u≠u)。 Here, the number of scans in the u-th set may be any number equal to or greater than 1 (u = 0, 1, ..., U). Also, the number of scans in the u1- th set and the number of scans in the u2 -th set may be equal to or different from each other ( u1 = 0, 1, ..., U; u2 = 0, 1, ..., U; u1u2 ).

第1の例において、選択部821は、既に行われた2回以上のスキャンで収集された2つ以上の画像群から画像を選択して暫定的画像セットを作成するように構成されてよい。つまり、スリットランプ顕微鏡システム1は、スキャンと画像選択との交互反復を実行中の任意の時点において、当該時点までに実施された2回以上のスキャンで得られた2以上の画像群から暫定的画像セットを作成するように構成されてよい。例えば、第u番目の組におけるスキャンが行われた後、選択部821は、第0番目の組から第u番目の組で得られた全ての画像のうちから暫定的画像セットを作成するように構成される。このような構成によれば、最終的な画像セットを構築するために、現時点までに得られた画像群から暫定的な画像セットを作成することができる。 In a first example, the selection unit 821 may be configured to select images from two or more image groups collected in two or more scans that have already been performed to create a provisional image set. That is, the slit lamp microscope system 1 may be configured to create a provisional image set from two or more image groups obtained in two or more scans performed up to that point at any point during the alternating repetition of scanning and image selection. For example, after the scan in the u-th set is performed, the selection unit 821 is configured to create a provisional image set from all images obtained in the 0-th set to the u-th set. With this configuration, a provisional image set can be created from the images obtained up to the current point in time to build a final image set.

暫定的画像セットを作成する上記構成が適用される場合、次の構成を組み合わせることができる。被検眼Eの前眼部に新たなスキャンが適用されたとき、選択部821は、まず、この新たなスキャンで収集された新たな画像群から画像を選択する。続いて、選択部821は、この新たなスキャンよりも前に行われた1以上のスキャンに基づく暫定的画像セットに、この新たな画像群から選択された画像を付加することで新たな暫定的画像セットを作成する。例えば、第(u+1)番目の組におけるスキャンが行われた後、選択部821は、まず、第(u+1)番目の組で得られた画像群から画像を選択することができる。更に、選択部821は、第0番目の組から第u番目の組で得られた画像群に基づく暫定的画像セットに、第(u+1)番目の組で得られた画像群から選択された画像を付加することによって、新たな暫定的画像セットを作成することができる。このような構成によれば、前眼部にスキャンが適用される度に、このスキャンで得られた画像群に基づいて暫定的画像セットを逐次に更新することができる。これにより、最終的な画像セットの構築を確実且つ効率的に行うことが可能となる。 When the above configuration for creating a provisional image set is applied, the following configuration can be combined. When a new scan is applied to the anterior segment of the subject's eye E, the selection unit 821 first selects an image from a new image group collected in the new scan. Next, the selection unit 821 creates a new provisional image set by adding an image selected from the new image group to a provisional image set based on one or more scans performed before the new scan. For example, after a scan in the (u+1)th set is performed, the selection unit 821 can first select an image from the image group obtained in the (u+1)th set. Furthermore, the selection unit 821 can create a new provisional image set by adding an image selected from the image group obtained in the (u+1)th set to a provisional image set based on the image group obtained in the 0th set to the uth set. With this configuration, each time a scan is applied to the anterior segment, the provisional image set can be sequentially updated based on the image group obtained in this scan. This makes it possible to reliably and efficiently construct a final image set.

暫定的画像セットを作成(及び更新)する上記構成が適用される場合、次の構成を組み合わせることができる。制御部7(又は画像セット作成部82(選択部821))は、暫定的画像セットに含まれる画像の個数をカウントする画像個数カウンタを含む。暫定的画像セットに含まれる画像の個数が所定の個数に達したとき、制御部7は、スキャンの適用と画像の選択との交互反復を終了するようにスキャン部(照明系2、撮影系3、移動機構6)及び選択部821を制御する。ここで、所定の個数は、最終的な画像セットに含まれる一連の画像の個数であり、事前に又は処理状況から設定される。また、暫定的画像セットに含まれる画像の個数が所定の個数に達したか否かの判定は、制御部7により実行される。この判定は、個数の比較のみであってよい。或いは、スキャン範囲における複数の位置と一連の画像とが関連付けられている場合(前述)、複数の位置の全てについて対応画像が割り当てられたか否か判定してもよい。このような構成によれば、最終的な画像セットのために必要な個数が得られたら、スキャンと画像選択との交互反復を自動で終了することができる。 When the above configuration for creating (and updating) a provisional image set is applied, the following configuration can be combined. The control unit 7 (or the image set creation unit 82 (selection unit 821)) includes an image number counter that counts the number of images included in the provisional image set. When the number of images included in the provisional image set reaches a predetermined number, the control unit 7 controls the scanning unit (illumination system 2, shooting system 3, movement mechanism 6) and the selection unit 821 to end the alternating repetition of applying the scan and selecting the images. Here, the predetermined number is the number of a series of images included in the final image set, and is set in advance or from the processing status. In addition, the control unit 7 determines whether the number of images included in the provisional image set has reached the predetermined number. This determination may be made only by comparing the numbers. Alternatively, when multiple positions in the scan range are associated with a series of images (as described above), it may be determined whether corresponding images have been assigned to all of the multiple positions. With this configuration, when the number required for the final image set is obtained, the alternating repetition of scanning and image selection can be automatically ended.

暫定的画像セットを作成(及び更新)する上記構成が適用される場合、次の構成を更に組み合わせることができる。制御部7は、スキャンと画像選択との交互反復の回数をカウントする反復回数カウンタを含む。カウントされる回数は、スキャンと画像選択との組(第1番目の組~第U番目の組)を単位として定義してもよいし、スキャン回数を単位として定義してもよい。反復回数が所定の回数に達したとき、制御部7は、スキャンの適用と画像の選択との交互反復を終了するようにスキャン部(照明系2、撮影系3、移動機構6)及び選択部821を制御する。スキャンと画像選択との組を単位として反復回数が定義される場合、所定の回数は、事前に設定された組の総数(U+1)に等しい。スキャン回数を単位として反復回数が定義される場合、所定の回数は、事前に設定された総スキャン回数に等しい。また、反復回数が所定の回数に達したか否かの判定は、制御部7により実行される。このような構成によれば、事前に設定された回数だけスキャン及び画像選択が繰り返された段階でこれを自動で終了することができる。本構成を用いない場合、最終的な画像セットの構築に必要な個数の画像が選択されるまでスキャン及び画像選択が繰り返されるため、被検者を疲労させるとともに撮影効率が低減する。特に、複数の被検者の撮影を順次に行う場合、撮影のスループットが大きく毀損される。 When the above configuration for creating (and updating) a provisional image set is applied, the following configuration can be further combined. The control unit 7 includes a repetition counter that counts the number of alternating repetitions of scanning and image selection. The counted number may be defined in units of pairs of scanning and image selection (the first pair to the Uth pair), or may be defined in units of the number of scans. When the number of repetitions reaches a predetermined number, the control unit 7 controls the scanning unit (illumination system 2, shooting system 3, moving mechanism 6) and the selection unit 821 to end the alternating repetition of scanning application and image selection. When the number of repetitions is defined in units of pairs of scanning and image selection, the predetermined number is equal to the total number of pairs (U+1) set in advance. When the number of repetitions is defined in units of the number of scans, the predetermined number is equal to the total number of scans set in advance. In addition, the control unit 7 determines whether the number of repetitions has reached the predetermined number. According to this configuration, it is possible to automatically end the repetitions of scanning and image selection when they have been repeated a predetermined number of times. Without this configuration, scanning and image selection are repeated until the number of images required to construct the final image set is selected, tiring the subject and reducing imaging efficiency. In particular, when imaging multiple subjects in succession, imaging throughput is significantly impaired.

以上のように、本態様は、スキャンと画像選択との交互反復を自動で終了するように構成されてよい。この自動終了の条件は上記した2つの例に限定されず、例えばユーザーからの指示入力であってもよい。或いは、スキャンと画像選択との交互反復の開始からの経過時間を計測し、所定の時間に達したときに交互反復を終了するようにしてもよい。なお、スキャンと画像選択との反復レートが一定である場合、経過時間に基づく自動終了制御は、上記した反復回数に基づく自動終了制御と同等である。画像セット作成部82は、スキャンと画像選択との交互反復が終了されたときの暫定的画像セットに基づいて画像セットを作成することができる。暫定的画像セットは、例えば、スキャン範囲に対応する一連の画像として画像セットに含まれる。スリットランプ顕微鏡システム1には、患者ID、公的ID、氏名、年齢、性別など、所定の被検者情報が別途に入力される。画像セット作成部82は、このような被検者情報、被検眼情報(左眼/右眼を示す情報など)、撮影日時、撮影条件などを、一連の画像の付帯情報として構成することで、画像セットを作成することができる。また、画像セットは、スリットランプ顕微鏡システム1で得られた他の画像、他のモダリティで得られた画像、検査装置により取得された検査データなどを含んでいてもよい。以上で、スキャン及び画像選択の実行態様の第1の例の説明を終える。 As described above, this embodiment may be configured to automatically end the alternating repetition of scanning and image selection. The condition for this automatic end is not limited to the above two examples, and may be, for example, an instruction input from the user. Alternatively, the elapsed time from the start of the alternating repetition of scanning and image selection may be measured, and the alternating repetition may be ended when a predetermined time is reached. In addition, when the repetition rate of scanning and image selection is constant, the automatic end control based on the elapsed time is equivalent to the automatic end control based on the number of repetitions described above. The image set creation unit 82 can create an image set based on a provisional image set when the alternating repetition of scanning and image selection is ended. The provisional image set is included in the image set as, for example, a series of images corresponding to the scan range. Predetermined subject information, such as a patient ID, a public ID, a name, an age, and a sex, is separately input to the slit lamp microscope system 1. The image set creation unit 82 can create an image set by configuring such subject information, subject eye information (such as information indicating the left eye/right eye), shooting date and time, shooting conditions, etc. as incidental information of a series of images. The image set may also include other images obtained by the slit lamp microscope system 1, images obtained by other modalities, inspection data acquired by an inspection device, etc. This concludes the explanation of the first example of the execution mode of scanning and image selection.

次に、第1回目のスキャンで得られた画像群の品質が良好でないと画像群評価部81により評価された後に実行されるスキャン及び画像選択の態様の第2の例について説明する。本例は、2回以上のスキャンをまとめて行った後に、それにより収集された2以上の画像群から一連の画像を選択するように構成される。そして、この2回以上のスキャンで収集された2つ以上の画像群と、その前に行われた第1回目のスキャンで得られた画像群とのうちから画像の選択が行われ、選択された一連の画像を含む画像セットが作成される。 Next, a second example of the scanning and image selection mode executed after the image group evaluation unit 81 evaluates that the quality of the image group obtained in the first scan is not good will be described. This example is configured to perform two or more scans together and then select a series of images from the two or more image groups collected thereby. Images are then selected from the two or more image groups collected in these two or more scans and the image group obtained in the first scan performed before that, and an image set including the selected series of images is created.

このような処理の具体例を説明する。選択部821は、まず、各スキャンに対応する画像群と、スキャン範囲における複数の位置(前述)とを対応付ける。これにより、スキャン範囲における複数の位置のそれぞれに対し、異なるスキャンに対応する2以上の画像が割り当てられる。 A specific example of such processing will be described. The selection unit 821 first associates a group of images corresponding to each scan with multiple positions (described above) in the scan range. As a result, two or more images corresponding to different scans are assigned to each of the multiple positions in the scan range.

続いて、スキャン範囲における複数の位置のそれぞれについて、選択部821は、当該位置に割り当てられた2以上の画像のうちから1つの画像を選択する。本例に適用される画像選択条件は、例えば、前述した瞬き条件及び眼球運動条件であってよい。これにより、スキャン範囲における複数の位置に対して1つずつ画像が割り当てられる。このようにして複数の位置に対応付けられた複数の画像が、画像セットに含まれる一連の画像として採用される。以上で、スキャン及び画像選択の実行態様の第2の例の説明を終える。 Next, for each of the multiple positions in the scan range, the selection unit 821 selects one image from the two or more images assigned to that position. The image selection conditions applied in this example may be, for example, the blink condition and eye movement condition described above. As a result, one image is assigned to each of the multiple positions in the scan range. The multiple images associated with the multiple positions in this way are adopted as a series of images included in the image set. This concludes the explanation of the second example of the execution mode of scanning and image selection.

画像群処理部80の第4の例を説明する。第2及び第3の例と同様に、本例の有効性は、特に、被検眼Eに対して2回以上のスキャンが適用される場合に発揮される。図6Dに示す画像群処理部80Dは、図6Aと同様の画像群評価部81と、図6B又は図6Cと同様の画像セット作成部82とに加えて、画像セット評価部83を含んでいる。 A fourth example of the image group processing unit 80 will be described. As with the second and third examples, the effectiveness of this example is particularly evident when two or more scans are applied to the subject eye E. The image group processing unit 80D shown in FIG. 6D includes an image group evaluation unit 81 similar to that in FIG. 6A, an image set creation unit 82 similar to that in FIG. 6B or FIG. 6C, and an image set evaluation unit 83.

画像セット評価部83は、画像セット作成部82により作成された画像セットの品質を評価する。この評価は、診断(読影)を有効に行うために十分な品質を画像セットが有しているか判定するものであり、この観点から評価項目や評価基準が決定される。評価項目や評価基準は、画像群評価条件の少なくとも一部及び/又は画像選択条件の少なくとも一部と共通であってよいが、それらに限定されない。 The image set evaluation unit 83 evaluates the quality of the image set created by the image set creation unit 82. This evaluation is to determine whether the image set has sufficient quality to perform effective diagnosis (image interpretation), and the evaluation items and evaluation criteria are determined from this perspective. The evaluation items and evaluation criteria may be common to at least a portion of the image group evaluation conditions and/or at least a portion of the image selection conditions, but are not limited to them.

画像セット評価部83は、画像セットの態様に応じて異なる評価を行うように構成されてもよい。例えば、暫定的画像セットに含まれる画像の個数が所定の個数に達したことに対応して作成された画像セットに適用される評価と、スキャン及び画像選択の交互反復の回数が所定の回数に達したことに対応して作成された画像セットに適用される評価とは、互いに異なってよい。なお、画像セットの態様に関わらず同じ評価を適用してもよい。 The image set evaluation unit 83 may be configured to perform different evaluations depending on the aspect of the image set. For example, the evaluation applied to an image set created in response to the number of images included in the provisional image set reaching a predetermined number may be different from the evaluation applied to an image set created in response to the number of alternating repetitions of scanning and image selection reaching a predetermined number. Note that the same evaluation may be applied regardless of the aspect of the image set.

画像セットの品質評価の例として、各画像の品質の評価(画像群の評価と同様であってよい)に加え、一連の画像の「配列順序」の評価、「画像の飛び(抜け)」の評価、「位置ずれ」の評価などがある。配列順序の入れ替わり、画像の飛び、位置ずれ等の画像セットの不具合は、眼球運動や固視ずれなどに起因して生じる。 Examples of quality assessment of an image set include assessment of the quality of each image (which may be similar to the assessment of a group of images), as well as assessment of the "arrangement order" of a series of images, assessment of "image skips (missing images)", and assessment of "misalignment". Defects in an image set, such as rearrangement of the arrangement order, skipping of images, and misalignment, arise due to eye movement, fixation misalignment, etc.

一連の画像の配列順序の評価について説明する。幾つかの例において、一連の画像と、スキャン範囲における複数の位置との間には、前述の対応関係(一対一対応)が設定されている。画像セット評価部83は、この対応関係を利用して配列順序の評価を行うことができる。 The evaluation of the arrangement order of a series of images will now be described. In some examples, the aforementioned correspondence (one-to-one correspondence) is set between the series of images and multiple positions in the scan range. The image set evaluation unit 83 can use this correspondence to evaluate the arrangement order.

ここで、スキャン範囲における複数の位置には、実空間における位置関係に対応した順序付けがなされている。一例を説明する。前述したように、X方向に沿ったスキャン範囲が(N-1)個の区間に区分され、スキャン開始位置からスキャン終了位置に向かって順に、N個の位置B1、B2、B3、・・・、BNが設定されているとする。つまり、N個の位置B1~BNには、実空間における位置関係に対応した順序付けが施されている。また、N個の位置B1~BNに対してN個の画像F1~FN(一連の画像)が一対一の関係で対応付けられているとする。 Here, the multiple positions in the scan range are ordered according to their positional relationships in real space. An example will be described. As described above, the scan range along the X direction is divided into (N-1) sections, and N positions B1, B2, B3, ..., BN are set in order from the scan start position toward the scan end position. In other words, the N positions B1 to BN are ordered according to their positional relationships in real space. Also, N images F1 to FN (a series of images) are associated with the N positions B1 to BN in a one-to-one relationship.

このような前提の下、画像セット評価部83は、例えば、N個の位置B1~BNの配列順序(相対位置関係)にしたがってN個の画像F1~FNを配置する。この処理は、例えば、或る3次元座標系内にN個の位置B1~BNの座標を設定し、設定されたN個の座標にしたがってN個の画像F1~FNを配置する(埋め込む)ことにより実現される。より詳細には、画像セット評価部83は、例えば、N個の画像F1~FNからそれぞれスリット光照射領域A1~AN(2次元断面画像)を抽出し、3次元座標系内にN個の位置B1~BNの座標を設定し、設定されたN個の座標にしたがってN個の2次元断面画像A1~ANを埋め込むことができる。 Under these assumptions, the image set evaluation unit 83 arranges the N images F1 to FN, for example, according to the arrangement order (relative positional relationship) of the N positions B1 to BN. This process is realized, for example, by setting the coordinates of the N positions B1 to BN in a certain three-dimensional coordinate system, and arranging (embedding) the N images F1 to FN according to the set N coordinates. More specifically, the image set evaluation unit 83 can, for example, extract slit light irradiation areas A1 to AN (two-dimensional cross-sectional images) from each of the N images F1 to FN, set the coordinates of the N positions B1 to BN in the three-dimensional coordinate system, and embed the N two-dimensional cross-sectional images A1 to AN according to the set N coordinates.

画像セット評価部83は、3次元座標系に埋め込まれた画像F1~FN(2次元断面画像A1~AN)を解析することで、配列順序が適切であるか評価することができる。例えば、画像セット評価部83は、画像F1~FN(2次元断面画像A1~AN)から注目領域(角膜前面、角膜後面、虹彩、瞳孔、水晶体前面、水晶体後面、隅角などの注目部位に対応する画像領域)を検出し、画像F1~FN(2次元断面画像A1~AN)の配列方向(本例ではX方向)における注目領域の形態(連結性、連続性など)に基づいて評価を行うことができる。例えば、所定寸法以上のギャップが注目領域に存在する場合、配列順序は適切でない(配列順序に入れ替わりが存在する)と判断される。 The image set evaluation unit 83 can evaluate whether the arrangement order is appropriate by analyzing the images F1-FN (two-dimensional cross-sectional images A1-AN) embedded in the three-dimensional coordinate system. For example, the image set evaluation unit 83 can detect areas of interest (image areas corresponding to areas of interest such as the anterior cornea, posterior cornea, iris, pupil, anterior crystalline lens, posterior crystalline lens, and angle) from the images F1-FN (two-dimensional cross-sectional images A1-AN), and perform an evaluation based on the shape (connectivity, continuity, etc.) of the areas of interest in the arrangement direction (X direction in this example) of the images F1-FN (two-dimensional cross-sectional images A1-AN). For example, if a gap of a predetermined dimension or more exists in the area of interest, it is determined that the arrangement order is inappropriate (there is a change in the arrangement order).

他の例において、画像セット評価部83は、3次元座標系に埋め込まれた画像F1~FN(2次元断面画像A1~AN)から、X方向に沿った断面像を構築する。更に、画像セット評価部83は、この断面像の形態(連結性、連続性など)に基づいて評価を行うことができる。 In another example, the image set evaluation unit 83 constructs a cross-sectional image along the X direction from images F1 to FN (2D cross-sectional images A1 to AN) embedded in a 3D coordinate system. Furthermore, the image set evaluation unit 83 can perform evaluation based on the form of this cross-sectional image (connectivity, continuity, etc.).

画像の飛びの評価や、位置ずれの評価についても、配列順序の評価と同じ要領で実行することが可能である。 Evaluation of image skipping and misalignment can also be performed in the same way as evaluation of the array order.

画像群評価部81や選択部821の場合と同様に、画像セット評価部83は、入力された画像セットが有効な診断のために十分な品質を有しているか評価するための人工知能エンジンを含んでいてもよい。 As with the image group evaluation unit 81 and the selection unit 821, the image set evaluation unit 83 may include an artificial intelligence engine to evaluate whether the input image set has sufficient quality for effective diagnosis.

画像セットの品質が良好であると画像セット評価部83により評価された場合、制御部7は、この画像セットを通信部9に送信させるための制御を行うように構成されてよい。例えば、制御部7は、この画像セットを含む送信用情報を準備し、この送信用情報を所定の外部装置に送信するように通信部9を制御する。 When the image set evaluation unit 83 evaluates the quality of the image set to be good, the control unit 7 may be configured to perform control to cause the communication unit 9 to transmit this image set. For example, the control unit 7 prepares transmission information including this image set, and controls the communication unit 9 to transmit this transmission information to a specified external device.

スリットランプ顕微鏡システム1から画像セット等を出力する態様は、送信に限定されない。送信以外の出力態様の例として、記憶装置(データベースなど)への保存、記録媒体への記録、印刷媒体への印刷などがある。 The manner in which an image set or the like is output from the slit lamp microscope system 1 is not limited to transmission. Examples of output manners other than transmission include saving in a storage device (such as a database), recording on a recording medium, and printing on a print medium.

画像セットの品質が良好でないと画像セット評価部83により評価された場合、制御部7は、被検眼Eに対する新たなスキャンを行うための制御、つまり新たな画像群(新たな画像セット)を取得するための制御を行うように構成されてよい。例えば、制御部7は、所定の出力情報を表示及び/又は音声出力するように構成されてよい。所定の出力情報は、例えば、撮影に失敗したこと、又は、再撮影の必要があることなど、ユーザーに再撮影を促すための内容を有する。 If the image set evaluation unit 83 evaluates the quality of the image set to be poor, the control unit 7 may be configured to perform control to perform a new scan of the subject's eye E, that is, control to obtain a new image group (new image set). For example, the control unit 7 may be configured to display and/or output predetermined output information as sound. The predetermined output information has content to prompt the user to retake the image, such as, for example, that the image capture has failed or that retaking the image is necessary.

或いは、制御部7は、画像セットの品質が良好でないと画像セット評価部83により評価された場合、再撮影(スキャン及び画像セット作成の再度の実行)を自動で開始するために、少なくともスキャン部(照明系2、撮影系3、移動機構6)及び画像セット作成部82に指令を送るように構成されてよい。 Alternatively, the control unit 7 may be configured to send a command to at least the scanning unit (illumination system 2, photographing system 3, movement mechanism 6) and the image set creation unit 82 to automatically start re-photographing (re-executing scanning and image set creation) when the image set evaluation unit 83 evaluates that the quality of the image set is not good.

更に、画像群評価部81の幾つかの例について図7A~図7Dを参照しつつ説明する。なお、画像群評価部81はこれらの例に限定されず、任意の変形(付加、置換、省略など)が可能である。また、これらの例や変形のうちの2つ以上を少なくとも部分的に組み合わせることが可能である。 Furthermore, several examples of the image group evaluation unit 81 will be described with reference to Figures 7A to 7D. Note that the image group evaluation unit 81 is not limited to these examples, and any modification (addition, substitution, omission, etc.) is possible. Also, two or more of these examples and modifications can be at least partially combined.

画像群評価部81の第1の例について図7A及び図7Bを参照しつつ説明する。本例は、人工知能技術を利用して画像群の品質評価を行うものである。図7Aに示す画像群評価部81Aは、推論モデル812Aを用いて画像群の品質評価を行う推論部811Aを含んでいる。 A first example of the image group evaluation unit 81 will be described with reference to Figures 7A and 7B. This example uses artificial intelligence technology to evaluate the quality of an image group. The image group evaluation unit 81A shown in Figure 7A includes an inference unit 811A that uses an inference model 812A to evaluate the quality of an image group.

推論モデル812Aは、複数の前眼部画像を含む訓練データを用いた機械学習によって予め構築される。推論モデル812Aを構築する装置(推論モデル構築装置)は、スリットランプ顕微鏡システム1(データ処理部8など)又はその周辺機器(コンピュータなど)に設けられてもよいし、他のコンピュータであってもよい。 The inference model 812A is constructed in advance by machine learning using training data including multiple anterior segment images. The device that constructs the inference model 812A (inference model construction device) may be provided in the slit lamp microscope system 1 (such as the data processing unit 8) or its peripheral device (such as a computer), or may be another computer.

図7Bに示すモデル構築部90は、このような推論モデル構築装置の例であり、スリットランプ顕微鏡システム1又はその周辺機器に設けられているものとする。モデル構築部90は、学習処理部91と、ニューラルネットワーク92とを含む。 The model construction unit 90 shown in FIG. 7B is an example of such an inference model construction device, and is provided in the slit lamp microscope system 1 or its peripheral devices. The model construction unit 90 includes a learning processing unit 91 and a neural network 92.

ニューラルネットワーク92は、典型的には、畳み込みニューラルネットワーク(CNN)を含む。畳み込みニューラルネットワークの構造の一例を図7Bに示す。 The neural network 92 typically includes a convolutional neural network (CNN). An example of the structure of a convolutional neural network is shown in FIG. 7B.

入力層には、画像が入力される。入力層の後ろには、畳み込み層とプーリング層とのペアが複数配置されている。図7Bに示す例には畳み込み層とプーリング層とのペアが3つ設けられているが、ペアの個数は任意である。 An image is input to the input layer. Behind the input layer, multiple pairs of convolutional layers and pooling layers are arranged. In the example shown in Figure 7B, three pairs of convolutional layers and pooling layers are provided, but the number of pairs is arbitrary.

畳み込み層では、画像から特徴(輪郭など)を把握するための畳み込み演算が行われる。畳み込み演算は、入力された画像に対する、この画像と同じ次元のフィルタ関数(重み係数、フィルタカーネル)の積和演算である。畳み込み層では、入力された画像の複数の部分にそれぞれ畳み込み演算を適用する。より具体的には、畳み込み層では、フィルタ関数が適用された部分画像の各画素の値に、その画素に対応するフィルタ関数の値(重み)を乗算して積を算出し、この部分画像の複数の画素にわたって積の総和を求める。このように得られた積和値は、出力される画像における対応画素に代入される。フィルタ関数を適用する箇所(部分画像)を移動させながら積和演算を行うことで、入力された画像の全体についての畳み込み演算結果が得られる。このような畳み込み演算によれば、多数の重み係数を用いて様々な特徴が抽出された画像が多数得られる。つまり、平滑化画像やエッジ画像などの多数のフィルタ処理画像が得られる。畳み込み層により生成される多数の画像は特徴マップと呼ばれる。 In the convolution layer, a convolution operation is performed to grasp features (such as contours) from an image. The convolution operation is a multiplication and accumulation operation of a filter function (weighting factor, filter kernel) of the same dimension as the input image for the input image. In the convolution layer, the convolution operation is applied to each of multiple parts of the input image. More specifically, in the convolution layer, the value of each pixel of the partial image to which the filter function is applied is multiplied by the value (weight) of the filter function corresponding to that pixel to calculate the product, and the sum of the products is calculated over the multiple pixels of this partial image. The product-accumulation value obtained in this way is substituted for the corresponding pixel in the output image. By performing the product-accumulation operation while moving the part (partial image) to which the filter function is applied, the convolution operation result for the entire input image is obtained. According to this convolution operation, many images in which various features are extracted using many weighting factors are obtained. In other words, many filtered images such as smoothed images and edge images are obtained. The many images generated by the convolution layer are called feature maps.

プーリング層では、直前の畳み込み層により生成された特徴マップの圧縮(データの間引きなど)が行われる。より具体的には、プーリング層では、特徴マップ内の注目画素の所定の近傍画素における統計値を所定の画素間隔ごとに算出し、入力された特徴マップよりも小さな寸法の画像を出力する。なお、プーリング演算に適用される統計値は、例えば、最大値(max pooling)又は平均値(average pooling)である。また、プーリング演算に適用される画素間隔は、ストライド(stride)と呼ばれる。 In the pooling layer, the feature map generated by the immediately preceding convolutional layer is compressed (data thinning, etc.). More specifically, in the pooling layer, statistics of a specified number of neighboring pixels of a pixel of interest in the feature map are calculated at a specified pixel interval, and an image with dimensions smaller than the input feature map is output. The statistics applied to the pooling operation are, for example, the maximum value (max pooling) or the average value (average pooling). The pixel interval applied to the pooling operation is called the stride.

畳み込みニューラルネットワークは、畳み込み層とプーリング層との複数のペアによって処理を行うことにより、入力された画像から多くの特徴を抽出することができる。 A convolutional neural network can extract many features from an input image by processing it using multiple pairs of convolutional layers and pooling layers.

畳み込み層とプーリング層との最後のペアの後ろには、全結合層が設けられている。図7Bに示す例においては2つの全結合層が設けられているが、全結合層の個数は任意である。全結合層では、畳み込みとプーリングとの組み合わせによって圧縮された特徴量を用いて、画像分類、画像セグメンテーション、回帰などの処理を行う。最後の全結合層の後ろには、出力結果を提供する出力層が設けられている。 After the last pair of convolutional and pooling layers, a fully connected layer is provided. In the example shown in FIG. 7B, two fully connected layers are provided, but the number of fully connected layers is arbitrary. In the fully connected layer, image classification, image segmentation, regression, and other processes are performed using features compressed by a combination of convolution and pooling. After the last fully connected layer, an output layer is provided to provide the output results.

なお、幾つかの例示的な態様において、畳み込みニューラルネットワークは、全結合層を含まなくてもよいし(例えば、全層畳み込みネットワーク(FCN))、サポートベクターマシン、再帰型ニューラルネットワーク(RNN)などを含んでいてもよい。また、ニューラルネットワーク92に対する機械学習は、転移学習であってもよい。つまり、ニューラルネットワーク92は、他の訓練データ(訓練画像)を用いた学習が既に行われてパラメータ調整が為されたニューラルネットワークを含んでいてもよい。また、モデル構築部90(学習処理部91)は、学習済みのニューラルネットワーク(92)にファインチューニングを適用可能に構成されてもよい。ニューラルネットワーク92は、例えば、公知のオープンソースのニューラルネットワークアーキテクチャを用いて構築されたものであってよい。 In some exemplary embodiments, the convolutional neural network may not include a fully connected layer (e.g., a fully-layered convolutional network (FCN)), and may include a support vector machine, a recurrent neural network (RNN), or the like. The machine learning for the neural network 92 may be transfer learning. That is, the neural network 92 may include a neural network that has already been trained using other training data (training images) and has had its parameters adjusted. The model construction unit 90 (learning processing unit 91) may be configured to be capable of applying fine tuning to the trained neural network (92). The neural network 92 may be constructed using, for example, a known open source neural network architecture.

学習処理部91は、訓練データを用いた機械学習をニューラルネットワーク92に適用する。ニューラルネットワーク92が畳み込みニューラルネットワークを含んでいる場合、学習処理部91によって調整されるパラメータは、例えば、畳み込み層のフィルタ係数と、全結合層の結合重み及びオフセットとを含む。 The learning processing unit 91 applies machine learning using training data to the neural network 92. When the neural network 92 includes a convolutional neural network, the parameters adjusted by the learning processing unit 91 include, for example, the filter coefficients of the convolutional layer and the connection weights and offsets of the fully connected layer.

訓練データは、前述したように、複数の前眼部画像を少なくとも含んでいる。複数の前眼部画像は、典型的には、スリットランプ顕微鏡によって取得された画像であるが、これに限定されず、例えば、他の眼科モダリティ(眼底カメラ、OCT装置、SLO、手術用顕微鏡など)により取得された画像、他の診療科の画像診断モダリティ(超音波診断装置、X線診断装置、X線CT装置、磁気共鳴イメージング(MRI)装置など)により取得された画像、実際の画像を加工して生成された画像、擬似的な画像などを含んでいてもよい。また、データ拡張、データオーギュメンテーションなどの技術を用いて、訓練データの個数を増加させてもよい。 As described above, the training data includes at least a plurality of anterior segment images. The plurality of anterior segment images are typically images acquired by a slit lamp microscope, but are not limited thereto, and may include, for example, images acquired by other ophthalmic modalities (fundus cameras, OCT devices, SLOs, surgical microscopes, etc.), images acquired by imaging diagnostic modalities of other medical departments (ultrasound diagnostic devices, X-ray diagnostic devices, X-ray CT devices, magnetic resonance imaging (MRI) devices, etc.), images generated by processing actual images, pseudo images, etc. Furthermore, the number of training data may be increased using techniques such as data expansion and data augmentation.

推論モデルを構築するための訓練手法は任意であってよいが、例えば、教師あり学習、教師なし学習、及び強化学習のいずれか、又は、いずれか2以上の組み合わせであってよい。 The training method for constructing an inference model may be any method, but may be, for example, supervised learning, unsupervised learning, or reinforcement learning, or a combination of two or more of these.

幾つかの例示的な態様では、入力画像に最終出力のラベルが付された訓練データを用いて教師あり学習が実施される。例えば、訓練データに含まれる複数の前眼部画像のそれぞれには、読影可能又は読影不可能であることを示すラベルが予め付帯されている。ラベルは、例えば、医師又は他の推論モデルによって生成される。学習処理部91は、このような訓練データを用いた教師あり学習をニューラルネットワーク92に適用することによって推論モデル812Aを構築することができる。 In some exemplary aspects, supervised learning is performed using training data in which input images are labeled with a final output label. For example, each of the multiple anterior segment images included in the training data is pre-labeled to indicate whether it is readable or unreadable. The labels are generated, for example, by a doctor or another inference model. The learning processing unit 91 can construct the inference model 812A by applying supervised learning using such training data to the neural network 92.

このようにして構築された本例の推論モデル812Aは、前眼部をスリット光でスキャンして得られた画像を入力とし、且つ、読影可能性を出力とした学習済みモデルである。なお、推論モデル812Aの出力である読影可能性は、評価対象の画像群が読影に適しているか否かを示す任意のパラメータであってよく、例えば、読影可能又は読影不可能の判別、読影を実施できる確率、読影を実施した場合の結果の妥当性(例えば、確度、精度)などであってよい。 The inference model 812A of this example constructed in this manner is a trained model that takes as input the image obtained by scanning the anterior segment with slit light, and outputs the possibility of interpretation. Note that the possibility of interpretation, which is the output of the inference model 812A, may be any parameter indicating whether the image group to be evaluated is suitable for interpretation, and may be, for example, a determination of whether interpretation is possible or not, the probability that interpretation can be performed, the validity of the results when interpretation is performed (e.g., accuracy, precision), etc.

ニューラルネットワーク92の特定のユニットに処理が集中しないようにするために、学習処理部91は、幾つかのユニットをランダムに選んで無効化し、残りのユニットを用いて学習を行ってもよい(ドロップアウト)。 To prevent processing from concentrating on specific units of the neural network 92, the learning processing unit 91 may randomly select and disable some units and perform learning using the remaining units (dropout).

推論モデル構築に用いられる手法は、ここに示した例に限定されない。例えば、サポートベクターマシン、ベイズ分類器、ブースティング、k平均法、カーネル密度推定、主成分分析、独立成分分析、自己組織化写像、ランダムフォレスト、敵対的生成ネットワーク(GAN)といった任意の手法を、推論モデルを構築するために利用することが可能である。 The methods used to build the inference model are not limited to the examples shown here. For example, any method such as a support vector machine, a Bayesian classifier, boosting, k-means, kernel density estimation, principal component analysis, independent component analysis, self-organizing map, random forest, or generative adversarial network (GAN) can be used to build the inference model.

図7Aに示す推論部811Aは、このような推論モデル812Aを用いて、被検眼Eの前眼部に対する1回のスキャンで収集された画像群の品質を評価する。より具体的に説明すると、まず、推論部811Aは、画像群又はそれに含まれる各画像を推論モデル812Aに入力する。推論モデル812Aは、入力された画像群又は画像から読影可能性を示す情報を導出する。 The inference unit 811A shown in FIG. 7A uses such an inference model 812A to evaluate the quality of a group of images collected in one scan of the anterior segment of the subject's eye E. More specifically, the inference unit 811A first inputs the image group or each image contained therein to the inference model 812A. The inference model 812A derives information indicating the possibility of interpretation from the input image group or images.

推論部811Aは、推論モデル812Aから出力された読影可能性情報をそのまま推論結果としてもよいし、読影可能性情報に基づき推論結果を生成してもよい。後者の例として、推論部811Aは、読影可能性情報から表示用の情報を生成してもよいし、所定の統計処理を実行してもよい。 The inference unit 811A may use the reading possibility information output from the inference model 812A as the inference result as is, or may generate an inference result based on the reading possibility information. As an example of the latter, the inference unit 811A may generate information for display from the reading possibility information, or may execute a predetermined statistical processing.

画像群評価部81の第2の例について図7Cを参照しつつ説明する。本例は、画像群を3次元画像化して品質評価を行うものである。図7Cに示す画像群評価部81Bは、3次元画像構築部811Bと、比較部812Bと、評価処理部813Bとを含む。 A second example of the image group evaluation unit 81 will be described with reference to FIG. 7C. In this example, an image group is converted into a three-dimensional image and quality evaluation is performed. The image group evaluation unit 81B shown in FIG. 7C includes a three-dimensional image construction unit 811B, a comparison unit 812B, and an evaluation processing unit 813B.

3次元画像構築部811Bは、被検眼Eの前眼部に対する1回のスキャン収集された画像群から3次元画像を構築する。例えば、3次元画像構築部811Bは、単一の3次元座標系に画像群を埋め込むことによってスタックデータを構築するように構成されてよい。このスタックデータは、例えば、図5に示すN個の2次元断面画像A1~ANを、前述したN個の位置B1~BNの配列(相対位置関係)にしたがって3次元座標系に埋め込むことによって構築される。 The three-dimensional image construction unit 811B constructs a three-dimensional image from a group of images acquired in a single scan of the anterior segment of the subject's eye E. For example, the three-dimensional image construction unit 811B may be configured to construct stack data by embedding the group of images in a single three-dimensional coordinate system. This stack data is constructed, for example, by embedding the N two-dimensional cross-sectional images A1 to AN shown in FIG. 5 in the three-dimensional coordinate system according to the arrangement (relative positional relationship) of the N positions B1 to BN described above.

3次元画像構築部811Bは、画像群から構築されたスタックデータにボクセル化処理を適用してボリュームデータを構築するように構成されてもよい。更に、3次元画像構築部811Bは、スタックデータ又はボリュームデータに所定のレンダリングを適用することができる。レンダリングの例として、ボリュームレンダリング、サーフェスレンダリングなどがある。 The three-dimensional image construction unit 811B may be configured to construct volume data by applying a voxelization process to stack data constructed from the image group. Furthermore, the three-dimensional image construction unit 811B can apply a predetermined rendering to the stack data or the volume data. Examples of rendering include volume rendering and surface rendering.

比較部812Bは、3次元画像構築部811Bにより構築された3次元画像(スタックデータ、ボリュームデータ、レンダリング画像など)を所定の基準3次元画像と比較する。基準3次元画像は、1つ以上の任意の個数だけ準備される。 The comparison unit 812B compares the 3D image (stack data, volume data, rendering image, etc.) constructed by the 3D image construction unit 811B with a predetermined reference 3D image. Any number of reference 3D images, one or more, are prepared.

基準3次元画像は、正常眼(疾患が認められなかった眼(健常眼))に対応する1以上の基準3次元画像を含んでいてよい。正常眼に対応する基準3次元画像は、例えば、正常眼を撮影して取得された画像であってよい。この基準3次元画像を取得するための撮影モダリティは任意であってよいが、典型的には、スリットランプ顕微鏡システム1又はこれと同様のスリットランプ顕微鏡である。また、正常眼に対応する基準3次元画像は、正常眼のモデル(模型眼など)を撮影して取得された画像、又は、正常眼のモデル若しくは臨床例からコンピュータグラフィックスにより作成された画像であってもよい。 The reference three-dimensional image may include one or more reference three-dimensional images corresponding to a normal eye (an eye in which no disease has been found (a healthy eye)). The reference three-dimensional image corresponding to a normal eye may be, for example, an image acquired by photographing a normal eye. The imaging modality for acquiring this reference three-dimensional image may be any, but is typically the slit lamp microscope system 1 or a similar slit lamp microscope. The reference three-dimensional image corresponding to a normal eye may also be an image acquired by photographing a model of a normal eye (such as a model eye), or an image created by computer graphics from a model of a normal eye or a clinical case.

基準3次元画像は、患眼に対応する1以上の基準3次元画像を含んでいてよい。患眼に対応する基準3次元画像は、例えば、特定の疾患の確定診断がなされた眼を撮影して取得された画像であってよい。この基準3次元画像を取得するための撮影モダリティは任意であってよいが、典型的には、スリットランプ顕微鏡システム1又はこれと同様のスリットランプ顕微鏡である。また、患眼に対応する基準3次元画像は、患眼のモデル(模型眼など)を撮影して取得された画像、又は、患眼のモデル若しくは臨床例からコンピュータグラフィックスにより作成された画像であってもよい。 The reference three-dimensional image may include one or more reference three-dimensional images corresponding to the diseased eye. The reference three-dimensional image corresponding to the diseased eye may be, for example, an image obtained by photographing an eye that has been definitively diagnosed with a specific disease. The imaging modality for obtaining this reference three-dimensional image may be any, but is typically the slit lamp microscope system 1 or a similar slit lamp microscope. The reference three-dimensional image corresponding to the diseased eye may also be an image obtained by photographing a model of the diseased eye (such as a model eye), or an image created by computer graphics from a model or clinical case of the diseased eye.

比較部812Bは、3次元画像構築部811Bにより構築された3次元画像と基準3次元画像とのマッチングを実行して所定のパラメータの値を算出する。この画像マッチングは、例えば、画像相関法、特徴ベースマッチング、領域ベースマッチング、機械学習(学習済みモデル)など、任意の手法を利用したものであってよい。また、算出されるパラメータは、相関値、マッチングパラメータ(角度、スケール、類似度、適合度など)、学習済みモデルの出力パラメータなど、任意のパラメータであってよい。 The comparison unit 812B performs matching between the 3D image constructed by the 3D image construction unit 811B and a reference 3D image to calculate the value of a predetermined parameter. This image matching may use any method, such as image correlation, feature-based matching, region-based matching, or machine learning (trained model). The calculated parameters may be any parameters, such as correlation values, matching parameters (angle, scale, similarity, compatibility, etc.), and output parameters of a trained model.

このような画像マッチングは、典型的には、3次元画像に描出されている組織や部位(角膜、虹彩、瞳孔、隅角など)の形状や構造が、標準的な正常眼の形状や構造とどの程度類似しているか、及び/又は、標準的な患眼の形状や構造とどの程度類似しているかを、定量的に(つまり数値として)表現する処理である。 Such image matching is typically a process that quantitatively (i.e., numerically) expresses the degree to which the shape and structure of tissues and areas (cornea, iris, pupil, angle, etc.) depicted in a 3D image resembles the shape and structure of a standard normal eye and/or resembles the shape and structure of a standard diseased eye.

評価処理部813Bは、比較部812Bにより算出されたパラメータ値に基づいて、当該画像群の品質の評価を行う。例えば、評価処理部813Bは、比較部812Bにより算出されたパラメータ値を所定の閾値と比較することによって当該画像群の品質を評価するように構成されてよい。或いは、評価処理部813Bは、比較部812Bにより算出されたパラメータ値が所定の範囲に含まれるか否か判断することによって当該画像群の品質を評価するように構成されてよい。なお、評価処理部813Bが実行する処理の手法はこれらに限定されず、或るパラメータの値から評価結果を導出するために用いることが可能な任意の手法であってよい。 The evaluation processing unit 813B evaluates the quality of the image group based on the parameter values calculated by the comparison unit 812B. For example, the evaluation processing unit 813B may be configured to evaluate the quality of the image group by comparing the parameter values calculated by the comparison unit 812B with a predetermined threshold value. Alternatively, the evaluation processing unit 813B may be configured to evaluate the quality of the image group by determining whether the parameter values calculated by the comparison unit 812B are within a predetermined range. Note that the processing methods performed by the evaluation processing unit 813B are not limited to these, and may be any method that can be used to derive an evaluation result from the value of a certain parameter.

3次元画像構築を利用した画像群の品質評価は本例に限定されない。例えば、画像群評価部81は、画像セット評価部83と同じ要領で、画像群を構成する一連の画像の配列順序の評価、画像の飛びの評価、及び、位置ずれの評価のいずれか1つ以上の評価処理を実行可能に構成されていてもよい。 The quality evaluation of an image group using three-dimensional image construction is not limited to this example. For example, the image group evaluation unit 81 may be configured to be capable of performing one or more evaluation processes, in the same manner as the image set evaluation unit 83, of evaluating the arrangement order of a series of images constituting an image group, evaluating image skipping, and evaluating misalignment.

画像群評価部81の第3の例について図7Dを参照しつつ説明する。本例は、画像群の画質の定量的評価によって品質を評価するものである。図7Dに示す画像群評価部81Cは、評価データ生成部811Cと、評価処理部812Cとを含む。 A third example of the image group evaluation unit 81 will be described with reference to FIG. 7D. In this example, the quality of an image group is evaluated by quantitatively evaluating the image quality of the image group. The image group evaluation unit 81C shown in FIG. 7D includes an evaluation data generation unit 811C and an evaluation processing unit 812C.

評価データ生成部811Cは、被検眼Eの前眼部に対する1回のスキャンで収集された画像群に含まれる画像から画質評価データを求める。画質評価データは、画像群の画質を定量的に表現したものである。 The evaluation data generating unit 811C obtains image quality evaluation data from images included in an image group collected in a single scan of the anterior segment of the subject's eye E. The image quality evaluation data quantitatively represents the image quality of the image group.

評価データ生成部811Cが実行する画質評価処理について幾つかの例を説明する。幾つかの例示的な態様において、評価データ生成部811Cが実行する画質評価処理は任意の処理であってよく、例えば、信号対雑音比(SNR)、コントラスト対雑音比(CNR)、二乗平均平方根(RMS)粒状度、ウィーナースペクトル(Wiener Spectrum)、変調伝達関数(MTF)、品質指標(Quality Index;QI)など、任意の公知技術を利用した処理であってよい。 Several examples of image quality evaluation processing performed by the evaluation data generation unit 811C will be described. In some exemplary aspects, the image quality evaluation processing performed by the evaluation data generation unit 811C may be any processing, such as signal-to-noise ratio (SNR), contrast-to-noise ratio (CNR), root-mean-square (RMS) granularity, Wiener spectrum, modulation transfer function (MTF), quality index (QI), or other processing using any known technology.

例えば、評価データ生成部811Cは、画像群の画質評価データとして、所定の画質評価指標の値(画質評価値)を算出する。画質評価値は、画像の品質を定量的に表現する任意のパラメータであってよく、典型的には、画像の品質が高いほど画質評価値も大きくなる。 For example, the evaluation data generation unit 811C calculates a value of a predetermined image quality evaluation index (image quality evaluation value) as image quality evaluation data for the image group. The image quality evaluation value may be any parameter that quantitatively expresses the quality of the image, and typically, the higher the image quality, the higher the image quality evaluation value.

画質評価値の算出方法の例として、OCT画像の画質評価に利用されているImage Quality値(IQ値)の算出方法を以下に説明する。まず、評価データ生成部811Cは、評価対象の画像に設定された評価領域に対して所定の解析処理(例えば、セグメンテーション)を適用することにより、前眼部の組織(部位)に相当する画像領域(組織画像領域)と、それ以外の画像領域(背景領域、非組織画像領域)とを検出する。次に、評価データ生成部811Cは、組織画像領域における輝度のヒストグラムを生成し、且つ、背景領域における輝度のヒストグラムを生成する。続いて、評価データ生成部811Cは、これら2つのヒストグラムの重なり具合から画質評価値(IQ値)を算出する。例えば、双方のヒストグラムが完全に重なっている場合にはIQ値=0となり、双方のヒストグラムが完全に分離している場合にはIQ値=100となるように、範囲[0,100]においてIQ値が定義される。この画質評価演算は、例えば、2つのヒストグラムの正規化、確率分布関数の生成、所定の演算式を用いたIQ値の算出などを含んでいてよい。 As an example of a method for calculating an image quality evaluation value, a method for calculating an Image Quality value (IQ value) used in evaluating the image quality of an OCT image will be described below. First, the evaluation data generating unit 811C detects an image area (tissue image area) corresponding to the tissue (site) of the anterior eye and other image areas (background area, non-tissue image area) by applying a predetermined analysis process (e.g., segmentation) to the evaluation area set in the image to be evaluated. Next, the evaluation data generating unit 811C generates a histogram of brightness in the tissue image area and generates a histogram of brightness in the background area. Next, the evaluation data generating unit 811C calculates an image quality evaluation value (IQ value) from the degree of overlap of these two histograms. For example, the IQ value is defined in the range [0, 100] so that when both histograms completely overlap, the IQ value is 0, and when both histograms are completely separated, the IQ value is 100. This image quality evaluation calculation may include, for example, normalizing two histograms, generating a probability distribution function, and calculating an IQ value using a specified formula.

このように、評価データ生成部811Cは、評価対象の画像において前眼部の組織に相当する組織画像領域と、背景領域とを特定する処理と、組織画像領域における輝度の度数分布を示す第1ヒストグラムを作成する処理と、背景領域における輝度の度数分布を示す第2ヒストグラムとを作成する処理と、第1ヒストグラム及び第2ヒストグラムに基づいて画質評価データとしての画質評価値(IQ値)を算出する処理とを実行するように構成されていてよい。 In this way, the evaluation data generating unit 811C may be configured to perform a process of identifying a tissue image region corresponding to the tissue of the anterior eye and a background region in the image to be evaluated, a process of creating a first histogram showing the frequency distribution of luminance in the tissue image region, a process of creating a second histogram showing the frequency distribution of luminance in the background region, and a process of calculating an image quality evaluation value (IQ value) as image quality evaluation data based on the first histogram and the second histogram.

評価処理部812Cは、評価データ生成部811Cにより生成された画質評価データに基づいて画像群の品質の評価を行う。画質評価データに基づく品質評価について幾つかの手法を以下に説明するが、品質評価手法はこれらに限定されるものではなく、任意であってよい。 The evaluation processing unit 812C evaluates the quality of the image group based on the image quality evaluation data generated by the evaluation data generation unit 811C. Several methods for quality evaluation based on image quality evaluation data are described below, but the quality evaluation method is not limited to these and may be any method.

画質評価データに基づく品質評価の第1の例を説明する。画像群を構成する各画像についてIQ値が得られた場合において、評価処理部812Cは、この画像群について得られた複数のIQ値のそれぞれを所定の閾値と比較する。複数のIQ値の全てが閾値以上である場合、評価処理部812Cは、この画像群の品質は良好であると判定する。一方、複数のIQ値のいずれかが閾値未満である場合、評価処理部812Cは、この画像群の品質は良好でないと判定する。 A first example of quality evaluation based on image quality evaluation data will be described. When an IQ value is obtained for each image constituting an image group, the evaluation processing unit 812C compares each of the multiple IQ values obtained for this image group with a predetermined threshold. If all of the multiple IQ values are equal to or greater than the threshold, the evaluation processing unit 812C determines that the quality of this image group is good. On the other hand, if any of the multiple IQ values is less than the threshold, the evaluation processing unit 812C determines that the quality of this image group is not good.

画質評価データに基づく品質評価の第2の例を説明する。画像群を構成する各画像についてIQ値が得られた場合において、評価処理部812Cは、この画像群について得られた複数のIQ値のうち最も低いIQ値を選択し、この最低IQ値を所定の閾値と比較する。最低IQ値が閾値以上である場合、評価処理部812Cは、この画像群の品質は良好であると判定する。一方、最低IQ値が閾値未満である場合、評価処理部812Cは、この画像群の品質は良好でないと判定する。 A second example of quality evaluation based on image quality evaluation data will be described. When an IQ value is obtained for each image constituting an image group, the evaluation processing unit 812C selects the lowest IQ value from the multiple IQ values obtained for this image group, and compares this minimum IQ value with a predetermined threshold. If the minimum IQ value is equal to or greater than the threshold, the evaluation processing unit 812C determines that the quality of this image group is good. On the other hand, if the minimum IQ value is less than the threshold, the evaluation processing unit 812C determines that the quality of this image group is not good.

画質評価データに基づく品質評価の第3の例を説明する。画像群を構成する各画像についてIQ値が得られた場合において、評価処理部812Cは、この画像群について得られた複数のIQ値に所定の統計演算を適用して統計値を算出する。この統計値の種類は任意であってよく、例えば、平均値、最小値、最大値、最頻値、中間値などであってよい。なお、統計値が最小値であるケースは、上記の第2の例に相当する。評価処理部812Cは、算出された統計値を所定の閾値と比較する。統計値が閾値以上である場合、評価処理部812Cは、この画像群の品質は良好であると判定する。一方、統計値が閾値未満である場合、評価処理部812Cは、この画像群の品質は良好でないと判定する。 A third example of quality evaluation based on image quality evaluation data will be described. When an IQ value is obtained for each image constituting an image group, the evaluation processing unit 812C calculates a statistical value by applying a predetermined statistical operation to the multiple IQ values obtained for this image group. The type of statistical value may be any, and may be, for example, an average value, a minimum value, a maximum value, a mode value, a median value, etc. Note that the case where the statistical value is a minimum value corresponds to the second example above. The evaluation processing unit 812C compares the calculated statistical value with a predetermined threshold value. If the statistical value is equal to or greater than the threshold value, the evaluation processing unit 812C determines that the quality of this image group is good. On the other hand, if the statistical value is less than the threshold value, the evaluation processing unit 812C determines that the quality of this image group is not good.

評価処理部812Cが実行する処理は、評価データ生成部811Cにより生成された画質評価データに基づく処理に限定されない。例えば、評価処理部812Cは、画像群を構成する一連の画像の配列順序の評価、画像の飛びの評価、及び、位置ずれの評価のいずれか1つ以上の評価処理を実行可能に構成されていてもよい(いずれの評価処理も前述した)。 The processing performed by the evaluation processing unit 812C is not limited to processing based on the image quality evaluation data generated by the evaluation data generation unit 811C. For example, the evaluation processing unit 812C may be configured to be capable of performing one or more of the following evaluation processes: evaluation of the arrangement order of a series of images constituting an image group, evaluation of image skipping, and evaluation of misalignment (all of which have been described above).

<加工画像構築部85>
加工画像構築部85は、スリット光を用いた前眼部スキャンで収集された画像群から加工画像を構築する。加工画像構築には、画像群に含まれる少なくとも1つの画像が使用される。加工画像構築は、任意の画像処理を含んでいてよい。幾つかの例を以下に説明するが、加工画像構築に含まれる処理はこれらに限定されない。
<Processed Image Construction Unit 85>
The processed image constructing unit 85 constructs a processed image from a group of images collected by scanning the anterior segment using a slit light. At least one image included in the group of images is used for constructing the processed image. The processed image construction may include any image processing. Some examples are described below, but the processing included in the processed image construction is not limited to these.

幾つかの例示的な態様の加工画像構築部85は、画像群から3次元画像を構築する3次元画像構築を実行可能であってよい。画像群から構築される3次元画像は、例えばスタックデータ又はボリュームデータであってよい。本例の加工画像構築部85は、前述の3次元画像構築部811Bと同様の構成を有していてよい。例えば、加工画像構築部85を構成するハードウェア及びソフトウェアの組み合わせと、3次元画像構築部811Bを構成するハードウェア及びソフトウェアの組み合わせとが、少なくとも部分的に共通であってよい。 In some exemplary embodiments, the processed image construction unit 85 may be capable of performing three-dimensional image construction to construct a three-dimensional image from a group of images. The three-dimensional image constructed from the group of images may be, for example, stack data or volume data. The processed image construction unit 85 in this example may have a configuration similar to that of the above-mentioned three-dimensional image construction unit 811B. For example, the combination of hardware and software constituting the processed image construction unit 85 may be at least partially common to the combination of hardware and software constituting the three-dimensional image construction unit 811B.

幾つかの例示的な態様の加工画像構築部85は、3次元画像のレンダリング画像を構築するレンダリング処理を実行可能であってよい。加工画像構築部85は、例えば、3次元画像構築によって得られたスタックデータ又はボリュームデータに所定のレンダリング処理を適用することができる。レンダリング処理の例として、ボリュームレンダリング、サーフェスレンダリングなどがある。本例の加工画像構築部85も、3次元画像構築部811Bと同様の構成を有していてよい。 In some exemplary embodiments, the processed image construction unit 85 may be capable of executing a rendering process that constructs a rendering image of a three-dimensional image. The processed image construction unit 85 may apply a predetermined rendering process to, for example, stack data or volume data obtained by constructing a three-dimensional image. Examples of the rendering process include volume rendering and surface rendering. The processed image construction unit 85 in this example may also have a similar configuration to the three-dimensional image construction unit 811B.

幾つかの例示的な態様の加工画像構築部85は、画像の部分領域を特定する処理(セグメンテーション)、特定された部分領域を抽出する処理(クロッピング、トリミング)などを実行可能であってよい。例えば、加工画像構築部85は、画像群の含まれる画像、3次元画像、又はレンダリング画像から、被検眼Eの所定部位に相当する注目領域を抽出可能であってよい。 In some exemplary embodiments, the processed image construction unit 85 may be capable of performing processes such as identifying a partial region of an image (segmentation) and extracting the identified partial region (cropping, trimming). For example, the processed image construction unit 85 may be capable of extracting a region of interest corresponding to a specific part of the subject's eye E from an image included in an image group, a three-dimensional image, or a rendering image.

<関心位置情報取得部86>
関心位置情報取得部86は、受付部11により受け付けられた患者IDに関連付けられた関心位置情報を、記憶部10に格納されている関連情報100から取得する。更に、本態様の関心位置情報取得部86は、この患者IDに関連付けられたパラメータ種別情報を関連情報100から取得する。
<Interest location information acquisition unit 86>
The position of interest information acquiring unit 86 acquires the position of interest information associated with the patient ID accepted by the accepting unit 11 from the related information 100 stored in the storage unit 10. Furthermore, the position of interest information acquiring unit 86 in this embodiment acquires parameter type information associated with this patient ID from the related information 100.

例えば、図2に示す関連情報101が用いられる場合において、受付部11により受け付けられた患者IDが「PID(1)」である場合、関心位置情報取得部86は、右眼についての関心位置情報「ROI(1R)」及びパラメータ種別情報「P(1R)」と、左眼についての関心位置情報「ROI(1L)」及びパラメータ種別情報「P(1L)」とを、関連情報101から取得する。 For example, when the related information 101 shown in FIG. 2 is used, if the patient ID accepted by the accepting unit 11 is "PID(1)", the position of interest information acquiring unit 86 acquires the position of interest information "ROI(1R)" and parameter type information "P(1R)" for the right eye, and the position of interest information "ROI(1L)" and parameter type information "P(1L)" for the left eye from the related information 101.

(画像解析部)
前述したように、特定部87及び解析部88の組み合わせは画像解析部(図示省略)の例として機能する。画像解析部は、関心位置情報取得部86が関連情報100から取得した関心位置情報に基づいて、被検眼Eの前眼部の画像の部分領域に対応するデータ(部分解析データ)を生成する。
(Image analysis section)
As described above, the combination of the identification unit 87 and the analysis unit 88 functions as an example of an image analysis unit (not shown). The image analysis unit generates data (partial analysis data) corresponding to a partial region of the image of the anterior segment of the subject's eye E, based on the position of interest information acquired by the position of interest information acquisition unit 86 from the related information 100.

幾つかの例示的な態様において、画像解析部は、当該患者の関心領域に応じた部分画像を被検眼Eの前眼部画像から特定する処理と、この部分画像を解析することによって部分解析データを生成する処理とを実行するように構成されていてよい。このような態様において、部分解析データは、前眼部画像の一部(部分画像)を解析して生成されるデータである。 In some exemplary aspects, the image analysis unit may be configured to perform a process of identifying a partial image corresponding to the patient's region of interest from the anterior segment image of the subject's eye E, and a process of generating partial analysis data by analyzing the partial image. In such aspects, the partial analysis data is data generated by analyzing a part of the anterior segment image (partial image).

幾つかの例示的な態様において、画像解析部は、被検眼Eの前眼部画像を解析して解析データを生成する処理と、この解析データのうちから当該患者の関心領域に応じた部分解析データを特定することによって部分解析データを生成する処理とを実行するように構成されていてよい。このような態様において、部分解析データは、前眼部画像の解析データの一部である。 In some exemplary aspects, the image analysis unit may be configured to perform a process of analyzing an anterior segment image of the subject's eye E to generate analysis data, and a process of generating partial analysis data by identifying partial analysis data from the analysis data that corresponds to the patient's region of interest. In such aspects, the partial analysis data is a part of the analysis data of the anterior segment image.

幾つかの例示的な態様の画像解析部は、被検眼Eの前眼部をスキャンして取得された画像群に含まれる少なくとも1つの画像のそれぞれから部分解析データを生成することができる。幾つかの例示的な態様の画像解析部は、2つ以上の画像群から生成された画像セットに含まれる少なくとも1つの画像のそれぞれから部分解析データを生成することができる。幾つかの例示的な態様の画像解析部は、画像群に含まれる画像の加工画像から部分解析データを生成することができる。幾つかの例示的な態様の画像解析部は、画像セットに含まれる画像の加工画像から部分解析データを生成することができる。なお、画像解析部により処理される画像の種類は、これらの例に限定されるものではなく、任意の前眼部画像であってよい。 The image analysis unit of some exemplary embodiments can generate partial analysis data from at least one image included in an image group acquired by scanning the anterior segment of the subject's eye E. The image analysis unit of some exemplary embodiments can generate partial analysis data from at least one image included in an image set generated from two or more image groups. The image analysis unit of some exemplary embodiments can generate partial analysis data from a processed image of an image included in an image group. The image analysis unit of some exemplary embodiments can generate partial analysis data from a processed image of an image included in an image set. Note that the type of image processed by the image analysis unit is not limited to these examples and may be any anterior segment image.

以下、このような機能を有する画像解析部の例示的な態様である特定部87及び解析部88について説明する。 Below, we will explain the identification unit 87 and analysis unit 88, which are exemplary aspects of an image analysis unit having such functions.

(特定部87)
特定部87は、関心位置情報取得部86により関連情報100から取得された関心位置情報に基づいて、患者IDに対応する患者の前眼部画像の部分領域を特定する。部分領域は、例えば、前眼部画像において関心領域に相当する領域であってよい。部分領域は、関心領域に一致する領域でなくてもよい。例えば、特定部87は、関心位置情報取得部86により関連情報100から取得された関心位置情報が示す関心領域に対応する前眼部画像の領域の少なくとも一部を含むように、部分領域の特定を行うことができる。部分領域の特定は、自動及び/又は手動で実行可能であってよい。
(Specifying unit 87)
The identification unit 87 identifies a partial region of the anterior eye image of the patient corresponding to the patient ID based on the position of interest information acquired from the related information 100 by the position of interest information acquisition unit 86. The partial region may be, for example, a region in the anterior eye image that corresponds to the region of interest. The partial region does not have to be a region that coincides with the region of interest. For example, the identification unit 87 can identify the partial region so as to include at least a part of the region of the anterior eye image that corresponds to the region of interest indicated by the position of interest information acquired from the related information 100 by the position of interest information acquisition unit 86. The identification of the partial region may be performed automatically and/or manually.

部分領域の特定を自動で行う場合について、幾つかの例示的な態様を説明する。特定部87は、関心領域に対応する前眼部画像中の領域よりも広い領域を部分領域として特定するように構成されていてよい。このような構成の幾つかの例示的な態様(第1~第6の例)を以下に説明する。なお、これらの例示的な態様のうちの2つ以上の態様を少なくとも部分的に組み合わせることが可能である。 Several exemplary aspects of automatic partial region identification will be described. The identification unit 87 may be configured to identify, as a partial region, an area that is larger than the area in the anterior segment image that corresponds to the region of interest. Several exemplary aspects of such a configuration (first to sixth examples) will be described below. Note that two or more of these exemplary aspects can be at least partially combined.

第1の例に係る特定部87は、関心位置情報取得部86により関連情報100から取得された関心位置情報を参照して、当該関心領域に対応する前眼部画像中の領域を特定する処理と、特定された領域よりも広い領域(特定された領域を真に含む領域)を決定する処理と、これにより決定された領域を部分領域として設定する処理とを実行するように構成されてよい。 The identification unit 87 in the first example may be configured to perform a process of identifying a region in the anterior eye image corresponding to the region of interest by referring to the location of interest information acquired from the related information 100 by the location of interest information acquisition unit 86, a process of determining a region larger than the identified region (a region that truly includes the identified region), and a process of setting the region determined in this way as a partial region.

第2の例に係る特定部87は、前眼部画像を複数の領域に分割する処理と、関心位置情報取得部86により関連情報100から取得された関心位置情報を用いて、画像分割で得られた複数の領域のうちから当該関心領域と少なくとも一部が重複する領域を特定する処理と、これにより特定された1以上の領域の和集合を求める処理と、この和集合からなる領域を部分領域として設定する処理とを実行するように構成されていてよい。 The identification unit 87 in the second example may be configured to perform the following processes: dividing the anterior eye image into a plurality of regions; using the location of interest information acquired from the related information 100 by the location of interest information acquisition unit 86, identifying a region that at least partially overlaps with the region of interest from among the plurality of regions obtained by the image division; determining the union of one or more regions thus identified; and setting the region consisting of this union as a partial region.

第3の例に係る特定部87は、関心位置情報取得部86により関連情報100から取得された関心位置情報を用いて、当該関心領域に対応する前眼部画像中の領域を特定する処理と、特定された領域の周縁を外方向に所定の寸法(距離、長さ、面積など)だけ拡大した周縁により囲まれる領域を求める処理と、これにより求められた領域を部分領域として設定する処理とを実行するように構成されていてよい。第3の例の周縁拡大に関するパラメータ(方向、寸法など)は、例えば、病変部(関心領域など)の拡大に影響を及ぼすファクタ及び/又はその可能性があるファクタに応じて設定されてよい。このようなファクタの例として、疾患種別、病態、病期、イベント(投薬、治療等)などがある。 The identification unit 87 in the third example may be configured to use the location of interest information acquired from the related information 100 by the location of interest information acquisition unit 86 to perform the following processes: identifying a region in the anterior eye image corresponding to the region of interest; determining a region surrounded by a periphery obtained by expanding the periphery of the identified region outward by a predetermined dimension (distance, length, area, etc.); and setting the region thus obtained as a partial region. The parameters (direction, dimension, etc.) related to the periphery expansion in the third example may be set according to factors that affect and/or have the potential to affect the expansion of the lesion (such as the region of interest). Examples of such factors include disease type, pathological condition, disease stage, and events (medication, treatment, etc.).

第4の例に係る特定部87は、関心位置情報取得部86により関連情報100から取得された関心位置情報を用いて前眼部画像中の位置を特定する処理と、当該特定位置を基準として所定形状の領域を段階的又は連続的に拡大する処理と、所定形状の領域が関心領域を含んだことを検知して領域拡大を停止する処理と、領域拡大が停止された所定形状の領域を部分領域として設定する処理とを実行するように構成されていてよい。 The identification unit 87 in the fourth example may be configured to perform the following processes: identifying a position in the anterior eye image using the position of interest information acquired from the related information 100 by the position of interest information acquisition unit 86; gradually or continuously expanding a region of a predetermined shape based on the identified position; detecting that the region of the predetermined shape includes the region of interest and stopping the region expansion; and setting the region of the predetermined shape where the region expansion has been stopped as a partial region.

第5の例に係る特定部87は、関心位置情報取得部86により関連情報100から取得された関心位置情報を用いて前眼部画像中の位置を特定する処理と、当該特定位置を基準として所定形状の領域を段階的又は連続的に拡大する処理と、所定形状の領域の寸法と関心領域の寸法とを比較する処理と、これら2つの寸法の関係が所定の条件を満足するか否か判定する処理と、2つの寸法の関係が所定の条件を満足すると判定されたときの所定形状の領域を部分領域として設定する処理とを実行するように構成されていてよい。 The identification unit 87 in the fifth example may be configured to perform the following processes: identifying a position in the anterior eye image using the position of interest information acquired from the related information 100 by the position of interest information acquisition unit 86; gradually or continuously enlarging a region of a predetermined shape based on the identified position; comparing the dimensions of the region of the predetermined shape with the dimensions of the region of interest; determining whether the relationship between these two dimensions satisfies a predetermined condition; and setting the region of the predetermined shape as a partial region when it is determined that the relationship between the two dimensions satisfies the predetermined condition.

第6の例に係る特定部87は、前眼部画像を解析して所定組織の評価(形状評価、厚み評価、厚み分布評価など)を行って評価情報を生成する処理と、この評価情報に基づいて前眼部画像において病変部に相当する領域(病変領域)を特定する処理と、この病変領域と関心領域とを比較する処理と、病変領域に含まれ且つ関心領域に含まれない領域と関心領域とを含む領域(つまり、病変領域と関心領域との和集合を含む領域)を決定する処理と、これにより決定された領域を部分領域として設定する処理とを実行するように構成されていてよい The identification unit 87 in the sixth example may be configured to perform the following processes: analyzing the anterior eye image and evaluating a specific tissue (shape evaluation, thickness evaluation, thickness distribution evaluation, etc.) to generate evaluation information; identifying an area in the anterior eye image that corresponds to a lesion (lesion area) based on the evaluation information; comparing the lesion area with a region of interest; determining an area that includes an area that is included in the lesion area but not included in the region of interest and the region of interest (i.e., an area that includes the union of the lesion area and the region of interest); and setting the area determined in this way as a partial region.

以上に説明した例示的な態様のように、関心領域よりも広い領域を部分領域として設定することにより、例えば、時間経過とともに進行する(例えば、時間経過とともに病変が拡大する)疾患、そのおそれがある疾患、又はその傾向がある疾患のフォローアップにおいて、関心領域の指定をその都度行う手間がなくなる。また、病変の範囲の変化(拡大、縮小)を容易に把握できるというメリットもある。なお、このような自動設定処理が適用される場合であっても、次に説明するような手動調整を任意的に実行できるようにスリットランプ顕微鏡システム1を構成することも可能である。 As in the exemplary embodiment described above, by setting an area larger than the area of interest as a partial area, the time required to specify the area of interest each time is eliminated when following up on a disease that progresses over time (e.g., the lesion expands over time), is at risk of progressing, or has a tendency to progress. Another advantage is that changes in the extent of the lesion (expansion, contraction) can be easily grasped. Note that even when such automatic setting processing is applied, the slit lamp microscope system 1 can also be configured to allow manual adjustments, as described below, to be performed at will.

部分領域の特定を手動で行う場合について、幾つかの例示的な態様を説明する。本態様の特定部87は、ユーザーからの指示にしたがって部分領域を特定することができる。例えば、特定部87は、ユーザーインターフェイスを操作してユーザーが入力した指示内容を示す情報(操作情報)を受け、この操作情報に基づいて部分領域を特定するように構成されている。例示的な態様を説明する。まず、制御部7が、被検眼Eの前眼部画像をユーザーインターフェイス(表示デバイス)に表示させる。ユーザーは、ユーザーインターフェイスに表示された前眼部画像中の所望の範囲を、ユーザーインターフェイスを用いて指定する。ユーザーにより指定された前眼部画像中の範囲に基づいて、特定部87は部分領域を特定する。このとき、部分領域は、ユーザーが指定した範囲に相当する画像領域でもよいし、この指定範囲よりも広い画像領域でもよい。後者が適用される場合、特定部87は、例えば、前述した自動処理(そのいずれかの態様)と同様の処理を実行するように構成されていてよい。 Several exemplary aspects will be described for the case where the partial region is manually specified. The specifying unit 87 of this aspect can specify the partial region according to instructions from the user. For example, the specifying unit 87 is configured to receive information (operation information) indicating the instruction content input by the user by operating the user interface, and specify the partial region based on this operation information. An exemplary aspect will be described. First, the control unit 7 causes the user interface (display device) to display the anterior segment image of the subject eye E. The user specifies a desired range in the anterior segment image displayed in the user interface using the user interface. The specifying unit 87 specifies the partial region based on the range in the anterior segment image specified by the user. At this time, the partial region may be an image area equivalent to the range specified by the user, or may be an image area wider than the specified range. When the latter is applied, the specifying unit 87 may be configured to execute, for example, a process similar to the automatic process (any of the aspects) described above.

特定部87は、ユーザーからの指示を受けることなく部分領域を特定するように構成されていてもよい。例えば、特定部87は、過去に取得された被検眼Eの画像(基準画像)に関心領域が設定されたか否かに応じて、異なる部分領域特定処理を切り替えて実行するように構成されていてよい。なお、特定部87は、いずれの場合にも対応できるように構成されてもよいし、いずれか一方の場合のみに対応可能に構成されてもよい。前者の場合、例えば、関心領域の設定態様に応じて処理モードの切り替えが行われる。後者の場合、例えば、特定部87により処理可能な形態(形式)の情報が生成されて特定部87に入力される。 The identification unit 87 may be configured to identify a partial region without receiving instructions from a user. For example, the identification unit 87 may be configured to switch between different partial region identification processes depending on whether a region of interest has been set in a previously acquired image (reference image) of the subject's eye E. The identification unit 87 may be configured to be able to handle either case, or to be able to handle only one of the cases. In the former case, for example, the processing mode is switched depending on the setting manner of the region of interest. In the latter case, for example, information in a form (format) that can be processed by the identification unit 87 is generated and input to the identification unit 87.

関心領域が基準画像に対して設定されている場合、関心位置情報は、この基準画像中の領域の位置(画素の位置、座標)を示す位置情報を含んでいてよい。本例において、特定部87は、図3に示すように構成されていてよい。すなわち、本例の特定部87は、偏位算出部871を含んでいてよい。 When a region of interest is set with respect to a reference image, the position information of interest may include position information indicating the position of the region in this reference image (pixel position, coordinates). In this example, the identification unit 87 may be configured as shown in FIG. 3. That is, the identification unit 87 in this example may include a deviation calculation unit 871.

偏位算出部871は、今回の被検眼Eの検査で取得された前眼部画像と基準画像との間の偏位を算出する。例えば、偏位算出部871は、基準画像中の特徴点を特定する処理と、前眼部画像中の特徴点を特定する処理と、特定された2つの特徴点の間の偏位を算出する処理とを実行するように構成されていてよい。本例では、特徴点間の偏位が、基準画像と前眼部画像との間の偏位として定義される。特徴点の例として、角膜(前面、後面、頂点、外縁など)、瞳孔(中心、重心、外縁など)、虹彩(内縁、パターンなど)、隅角、水晶体、人工物、病変部、治療痕などがある。 The deviation calculation unit 871 calculates the deviation between the anterior eye image acquired in the current examination of the subject's eye E and the reference image. For example, the deviation calculation unit 871 may be configured to execute a process of identifying feature points in the reference image, a process of identifying feature points in the anterior eye image, and a process of calculating the deviation between the two identified feature points. In this example, the deviation between feature points is defined as the deviation between the reference image and the anterior eye image. Examples of feature points include the cornea (anterior surface, posterior surface, apex, outer edge, etc.), pupil (center, center of gravity, outer edge, etc.), iris (inner edge, pattern, etc.), angle, crystalline lens, artificial object, lesion, treatment scar, etc.

特定部87は、偏位算出部871により算出された偏位と、関心位置情報に含まれる上記位置情報とに基づいて、部分領域を特定することができる。幾つかの例示的な態様において、特定部87は、偏位算出部871により算出された偏位が打ち消されるように、基準画像と前眼部画像との間の位置合わせ(レジストレーション、画像マッチング)を行うように構成されていてよい。これにより、基準画像中の関心領域に対応する前眼部画像中の領域が特定され、特定された前眼部画像中の領域が部分領域に設定される。 The identification unit 87 can identify a partial region based on the deviation calculated by the deviation calculation unit 871 and the position information included in the position information of interest. In some exemplary aspects, the identification unit 87 may be configured to perform registration (image matching) between the reference image and the anterior eye image so that the deviation calculated by the deviation calculation unit 871 is cancelled. This identifies a region in the anterior eye image that corresponds to the region of interest in the reference image, and the identified region in the anterior eye image is set as the partial region.

幾つかの例示的な態様において、特定部87は、基準画像中の関心領域に対応する前眼部画像中の領域を特定し、特定された画像領域に対応する座標値の範囲を当該偏位が打ち消されるように移動することによって、部分領域を特定するように構成されていてよい。 In some exemplary embodiments, the identification unit 87 may be configured to identify a region in the anterior eye image that corresponds to the region of interest in the reference image, and to identify the partial region by moving the range of coordinate values that correspond to the identified image region so as to cancel the deviation.

幾つかの例示的な態様において、特定部87は、関心位置情報に含まれる上記位置情報を参照して、基準画像中の関心領域に対応する前眼部画像中の領域を特定するように構成されていてよい。このような態様の特定部87は、偏位算出部871により算出された偏位から前眼部画像中の部分領域を特定することができる。 In some exemplary aspects, the identification unit 87 may be configured to identify a region in the anterior eye image that corresponds to the region of interest in the reference image by referring to the position information included in the position of interest information. The identification unit 87 in such an aspect can identify a partial region in the anterior eye image from the deviation calculated by the deviation calculation unit 871.

次に、関心領域が基準画像に対して設定されていない場合における幾つかの例示的な態様を説明する。関心位置情報は、被検眼Eの前眼部の或る部位の位置を示す位置情報を含んでいてよい。例えば、この位置情報は、被検眼Eの前眼部における特徴点に対する当該部位の相対位置(偏位:偏位方向、偏位量)を示す情報を含んでいてよい。本例の特徴点は、例えば、角膜(前面、後面、頂点、外縁など)、瞳孔(中心、重心、外縁など)、虹彩(内縁、パターンなど)、隅角、水晶体、人工物、病変部、治療痕などがあってよい。 Next, some exemplary aspects in which the region of interest is not set with respect to the reference image will be described. The position information of interest may include position information indicating the position of a certain part of the anterior segment of the subject's eye E. For example, this position information may include information indicating the relative position (deviation: deviation direction, deviation amount) of that part with respect to a feature point in the anterior segment of the subject's eye E. The feature points in this example may be, for example, the cornea (anterior surface, posterior surface, apex, outer edge, etc.), pupil (center, center of gravity, outer edge, etc.), iris (inner edge, pattern, etc.), angle, crystalline lens, artificial object, lesion, treatment scar, etc.

関心領域が基準画像に対して設定されていない場合、特定部87は、偏位算出部871を備えていなくてよい。本態様の特定部87は、関心位置情報に含まれる上記位置情報に示された部位の位置に対応する前眼部画像中の領域を特定することによって、部分領域を特定するように構成されていてよい。このような特定部87の幾つかの例示的な態様を以下に説明する。 If the region of interest is not set with respect to the reference image, the identification unit 87 may not include the deviation calculation unit 871. The identification unit 87 of this embodiment may be configured to identify a partial region by identifying a region in the anterior eye image that corresponds to the position of the part indicated in the position information included in the position information of interest. Some exemplary embodiments of such an identification unit 87 are described below.

第1の例に係る特定部87は、前眼部画像を解析することによって特徴点の位置(座標値)を特定することができる。特定部87は、特定された特徴点の位置から位置情報に示す偏位方向に当該偏位だけシフトした位置を特定し、特定された位置に基づいて部分領域を設定することができる。 The identification unit 87 according to the first example can identify the position (coordinate value) of the feature point by analyzing the anterior eye image. The identification unit 87 can identify a position shifted from the identified position of the feature point by the deviation in the deviation direction indicated in the position information, and set a partial region based on the identified position.

第2の例について説明する。前述したように、関心位置情報に含まれる位置情報は、被検眼Eの前眼部における特徴点に対する或る部位の相対位置(偏位:偏位方向、偏位量)を示す情報を含んでいてよい。本例の相対位置は、例えば、特徴点に対する或る部位の代表点(重心、中心等)の偏位(偏位方向及び偏位量)と、この代表点を基準とした当該部位の範囲(形状、サイズ、方向等)を表す情報(範囲情報)とを含んでいる。本例の特定部87は、前眼部画像を解析して特徴点の位置(座標値)を特定する処理と、位置情報に示す偏位だけ当該座標値からシフトした位置(座標値)を求める処理とを実行するように構成されていてよい。これにより求められた位置(座標値)が代表点の位置として設定される。更に、特定部87は、設定された代表点の位置と上記範囲情報とに基づいて部分領域を特定することができる。 A second example will be described. As described above, the position information included in the interest position information may include information indicating the relative position (deviation: deviation direction, deviation amount) of a certain part with respect to a feature point in the anterior part of the subject's eye E. The relative position in this example includes, for example, the deviation (deviation direction and deviation amount) of a representative point (center of gravity, center, etc.) of a certain part with respect to the feature point, and information (range information) indicating the range (shape, size, direction, etc.) of the part based on the representative point. The identification unit 87 in this example may be configured to execute a process of analyzing the anterior part image to identify the position (coordinate value) of the feature point, and a process of obtaining a position (coordinate value) shifted from the coordinate value by the deviation indicated in the position information. The position (coordinate value) obtained in this way is set as the position of the representative point. Furthermore, the identification unit 87 can identify a partial area based on the position of the set representative point and the above-mentioned range information.

(解析部88)
解析部88は、特定部87により特定された部分領域を解析する。これにより生成されるデータを部分解析データと呼ぶ。
(Analysis unit 88)
The analysis unit 88 analyzes the partial region identified by the identification unit 87. Data generated in this way is called partial analysis data.

解析部88が実行する処理の例を説明する。解析部88は、関心位置情報取得部86により取得された当該患者(被検眼E)に対応するパラメータ種別情報に基づいて、特定部87により特定された部分領域についてパラメータの演算を行う。パラメータの例として、部分領域のサイズを表す値がある。部分領域のサイズの例として、部分領域の幅、面積、体積、厚み、質量(推定値)などがある。サイズの値の例として、部分領域内における値の分布や、部分領域内の代表点(中心、重心位置など)における値などがある。 An example of processing executed by the analysis unit 88 will be described. The analysis unit 88 calculates parameters for the partial region identified by the identification unit 87 based on parameter type information corresponding to the patient (examined eye E) acquired by the position of interest information acquisition unit 86. An example of a parameter is a value representing the size of the partial region. Examples of the size of the partial region include the width, area, volume, thickness, and mass (estimated value) of the partial region. Examples of size values include the distribution of values within the partial region and values at representative points (center, center of gravity position, etc.) within the partial region.

関心位置情報は、2以上の関心領域の位置を示す情報であってもよい。すなわち、前眼部画像中に2以上の関心領域が設定されてもよい。この場合、特定部87は、2以上の関心領域のそれぞれに対応する部分領域を特定する。これにより、2以上の関心領域に対応する2以上の部分解析データが得られる。解析部88は、特定された2以上の部分領域のそれぞれを解析する。これにより、2以上の関心領域に対応する2以上の部分解析データが得られる。 The position information of interest may be information indicating the positions of two or more regions of interest. That is, two or more regions of interest may be set in the anterior eye image. In this case, the identification unit 87 identifies partial regions corresponding to each of the two or more regions of interest. As a result, two or more pieces of partial analysis data corresponding to the two or more regions of interest are obtained. The analysis unit 88 analyzes each of the two or more identified partial regions. As a result, two or more pieces of partial analysis data corresponding to the two or more regions of interest are obtained.

(特定部87及び解析部88の他の態様)
上記の態様は、患者ごとに設定された関心領域に対応する部分領域を前眼部画像から特定し、特定された部分領域を解析して部分解析データを取得するように構成されている。これに対し、本態様は、患者の前眼部画像を解析して解析データを生成し、この患者の関心領域に基づき解析データから部分解析データ(解析データの一部)を取得するように構成される。いずれの態様も、当該患者の関心領域に対応する部分解析データを生成する点は同じであるが、処理の順序が逆になっている。つまり、上記の態様は、関心領域に対応する部分の特定の後に解析を行っているが、本態様は、解析の後に部分の特定をおこなっている。換言すると、上記の態様では、特定部87が動作した後に解析部88が動作するが、本態様では、解析部88が動作した後に特定部87が動作する。
(Other Aspects of Identification Unit 87 and Analysis Unit 88)
The above-mentioned embodiment is configured to identify a partial region corresponding to a region of interest set for each patient from an anterior eye image, analyze the identified partial region, and acquire partial analysis data. In contrast, the present embodiment is configured to analyze an anterior eye image of a patient to generate analysis data, and acquire partial analysis data (a part of the analysis data) from the analysis data based on the region of interest of the patient. Both embodiments are the same in that partial analysis data corresponding to the region of interest of the patient is generated, but the order of processing is reversed. That is, in the above-mentioned embodiment, the analysis is performed after the part corresponding to the region of interest is identified, whereas in the present embodiment, the part is identified after the analysis. In other words, in the above-mentioned embodiment, the identification unit 87 operates before the analysis unit 88 operates, whereas in the present embodiment, the identification unit 87 operates after the analysis unit 88 operates.

本態様の解析部88は、被検眼Eの前眼部画像を解析して解析データを生成する。本態様の解析部88の構成は上記の態様の解析部88と同様であってよく、本態様の解析部88が実行する処理(解析)は、前眼部画像の全体(又は、関心領域とは関係なく指定された部分)に解析を適用することを除いて、上記の態様の解析部88が実行する処理と同様であってよい。 The analysis unit 88 of this embodiment analyzes the anterior segment image of the subject's eye E to generate analysis data. The configuration of the analysis unit 88 of this embodiment may be similar to that of the analysis unit 88 of the above embodiment, and the process (analysis) performed by the analysis unit 88 of this embodiment may be similar to that performed by the analysis unit 88 of the above embodiment, except that the analysis is applied to the entire anterior segment image (or a specified portion regardless of the region of interest).

本態様の特定部87は、関心位置情報取得部86により関連情報100から取得された関心位置情報に基づいて、本態様の解析部88が前眼部画像の全体(又は、関心領域とは関係なく指定された部分)を解析して得られた解析データから部分解析データを特定する。本態様の特定部87の構成は上記の態様の特定部87と同様であってよく、本態様の特定部87が実行する処理(データの部分を特定する処理)は、処理するデータの種類を除いて(上記の態様では前眼部画像であり、本態様では解析データである)、上記の態様の特定部87が実行する処理と同様であってよい。 The identification unit 87 of this embodiment identifies partial analysis data from analysis data obtained by the analysis unit 88 of this embodiment analyzing the entire anterior eye image (or a portion specified regardless of the region of interest) based on the location of interest information acquired from the related information 100 by the location of interest information acquisition unit 86. The configuration of the identification unit 87 of this embodiment may be similar to that of the identification unit 87 of the above embodiment, and the process performed by the identification unit 87 of this embodiment (processing to identify a portion of data) may be similar to the process performed by the identification unit 87 of the above embodiment, except for the type of data to be processed (an anterior eye image in the above embodiment, and analysis data in this embodiment).

上記の態様と同様に、本態様の特定部87は偏位算出部871を含んでいてもよい。関心位置情報が、過去に取得された前眼部の基準画像中の領域の位置を示す位置情報を含む場合、本態様の偏位算出部871は、被検眼Eの前眼部画像と基準画像との間の偏位を算出する。更に、本態様の特定部87は、関心位置情報に含まれる位置情報と、本態様の偏位算出部871により算出された偏位とに基づいて、本態様の解析部88が前眼部画像の全体(又は、関心領域とは関係なく指定された部分)を解析して得られたから部分解析データを特定する。本態様の偏位算出部871の構成は上記の態様の偏位算出部871と同様であってよく、本態様の偏位算出部871が実行する処理は、処理するデータの種類を除いて、上記の態様の偏位算出部871が実行する処理と同様であってよい。 As in the above embodiment, the identification unit 87 of this embodiment may include a deviation calculation unit 871. When the position information of interest includes position information indicating the position of a region in a previously acquired reference image of the anterior eye, the deviation calculation unit 871 of this embodiment calculates the deviation between the anterior eye image of the subject's eye E and the reference image. Furthermore, the identification unit 87 of this embodiment specifies partial analysis data obtained by the analysis unit 88 of this embodiment analyzing the entire anterior eye image (or a portion specified regardless of the region of interest) based on the position information included in the position information of interest and the deviation calculated by the deviation calculation unit 871 of this embodiment. The configuration of the deviation calculation unit 871 of this embodiment may be the same as that of the deviation calculation unit 871 of the above embodiment, and the process performed by the deviation calculation unit 871 of this embodiment may be the same as the process performed by the deviation calculation unit 871 of the above embodiment, except for the type of data to be processed.

関心位置情報は、前眼部の所定部位の位置を示す位置情報を含んでいてもよい。この場合、本態様の特定部87は、関心位置情報に含まれる位置情報が示す所定部位の位置に対応する解析データの領域を特定し、特定された当該領域を部分解析データとして設定することができる。 The position information of interest may include position information indicating the position of a specific site in the anterior eye. In this case, the identification unit 87 of this embodiment can identify an area of the analysis data that corresponds to the position of the specific site indicated by the position information included in the position information of interest, and set the identified area as partial analysis data.

本態様の特定部87は、当該患者について設定された関心領域に対応する解析データの領域を含むように部分解析データを特定することができる。更に、本態様の特定部87は、当該患者について設定された関心領域に対応する解析データの領域より広い領域を部分解析データとして特定することができる。 The identification unit 87 of this embodiment can identify partial analysis data to include an area of analysis data corresponding to the area of interest set for the patient. Furthermore, the identification unit 87 of this embodiment can identify an area wider than the area of analysis data corresponding to the area of interest set for the patient as partial analysis data.

以上に説明した幾つかの構成や機能は上記の態様と同様であり、また、上記の態様における任意の構成や任意の機能を本態様に組み合わせることができる。 Some of the configurations and functions described above are similar to the above embodiment, and any of the configurations and functions in the above embodiment can be combined with this embodiment.

(更新部89)
特定部87が動作した後に解析部88が動作する態様において、更新部89は、今回の検査において新たな部分領域(過去に適用されたものと異なる部分領域)が設定された場合に動作する。更新部89は、特定部87により新たな部分領域の特定が行われた場合に、この患者の患者IDに関連付けられた関心位置情報(関連情報100に記録されている)を、この新たな部分領域に基づいて更新する。
(Update unit 89)
In a mode in which the analysis unit 88 operates after the identification unit 87 operates, the update unit 89 operates when a new partial region (a partial region different from the one previously applied) is set in the current examination. When a new partial region is identified by the identification unit 87, the update unit 89 updates the position of interest information (recorded in the related information 100) associated with the patient ID of this patient based on this new partial region.

解析部88が動作した後に特定部87が動作する態様において、更新部89は、今回の検査において新たな範囲の部分解析データ(過去に適用されたものと異なる範囲の部分解析データ)が生成された場合に動作する。更新部89は、特定部87により新たな範囲の部分解析データが生成された場合に、この患者の患者IDに関連付けられた関心位置情報(関連情報100に記録されている)を、この新たな範囲に基づいて更新する。 In a mode in which the identification unit 87 operates after the analysis unit 88 operates, the update unit 89 operates when a new range of partial analysis data (partial analysis data with a different range from that previously applied) is generated in the current examination. When a new range of partial analysis data is generated by the identification unit 87, the update unit 89 updates the position of interest information (recorded in the related information 100) associated with the patient ID of this patient based on this new range.

<通信部9>
通信部9は、スリットランプ顕微鏡システム1と他の装置(外部装置)との間におけるデータ通信を行う。すなわち、通信部9は、他の装置へのデータの送信と、他の装置から送信されたデータの受信とを行う。
<Communication Unit 9>
The communication unit 9 performs data communication between the slit lamp microscope system 1 and other devices (external devices). That is, the communication unit 9 transmits data to other devices and receives data transmitted from other devices.

例えば、通信部9は、被検眼Eの前眼部をスリット光でスキャンして収集された画像群の少なくとも一部の画像を他の装置(第1外部装置)に向けて送信することができる。また、通信部9は、データ処理部8によりこの画像群から生成されたデータを他の装置(第2外部装置)に向けて送信することができる。第1外部装置と第2外部装置とは同一の装置であってもよいし、異なる装置であってもよい。第1外部装置と第2外部装置とが同一である場合、この外部装置は、例えば、読影端末、読影装置、及び、データ処理部8とは異なる処理を実行するコンピュータのいずれかであってよい。他方、第1外部装置と第2外部装置とが異なる場合、例えば、第1外部装置は、読影端末、読影装置、データ処理部8と同様の処理を実行するコンピュータ、及び、データ処理部8とは異なる処理を実行するコンピュータのいずれかであってよく、第2外部装置は、読影端末、読影装置、及び、データ処理部8とは異なる処理を実行するコンピュータのいずれかであってよい。第1外部装置と第2外部装置とが異なる場合、制御部7は、送信されるデータの種類に応じて送信先となる外部装置を選択するように構成されていてよい。 For example, the communication unit 9 can transmit at least a part of the image group collected by scanning the anterior segment of the subject's eye E with slit light to another device (first external device). The communication unit 9 can also transmit data generated from the image group by the data processing unit 8 to another device (second external device). The first external device and the second external device may be the same device or different devices. When the first external device and the second external device are the same device, the external device may be, for example, any of an image reading terminal, an image reading device, and a computer that executes a process different from that of the data processing unit 8. On the other hand, when the first external device and the second external device are different devices, the first external device may be, for example, any of an image reading terminal, an image reading device, a computer that executes a process similar to that of the data processing unit 8, and a computer that executes a process different from that of the data processing unit 8, and the second external device may be any of an image reading terminal, an image reading device, and a computer that executes a process different from that of the data processing unit 8. When the first external device and the second external device are different devices, the control unit 7 may be configured to select the external device to be the destination according to the type of data to be transmitted.

通信部9が実行するデータ通信の方式は任意である。例えば、通信部9は、インターネットに準拠した通信インターフェイス、専用線に準拠した通信インターフェイス、LANに準拠した通信インターフェイス、近距離通信に準拠した通信インターフェイスなど、各種の通信インターフェイスのうちの1以上を含む。データ通信は有線通信でも無線通信でもよい。 The data communication method implemented by the communication unit 9 is arbitrary. For example, the communication unit 9 includes one or more of various communication interfaces, such as a communication interface compliant with the Internet, a communication interface compliant with a dedicated line, a communication interface compliant with a LAN, and a communication interface compliant with short-range communication. The data communication may be wired communication or wireless communication.

通信部9により送信されるデータ及び/又は受信されるデータは暗号化されていてよい。暗号化が用いられる場合、例えば、制御部7及び/又はデータ処理部8は、通信部9により送信されるデータを暗号化する暗号化処理部、及び、通信部9により受信されたデータを復号化する復号化処理部の少なくとも一方を含む。 The data transmitted by the communication unit 9 and/or the data received may be encrypted. When encryption is used, for example, the control unit 7 and/or the data processing unit 8 includes at least one of an encryption processing unit that encrypts the data transmitted by the communication unit 9 and a decryption processing unit that decrypts the data received by the communication unit 9.

<他の要素>
図1A及び図1Bに示す要素に加え、スリットランプ顕微鏡システム1は、ユーザーインターフェイスを備えていてもよい。ユーザーインターフェイスは、例えば、表示デバイスと、操作デバイスとを含む。表示デバイスは、制御部7の制御の下に動作する。表示デバイスはLCDなどのフラットパネルディスプレイであってよい。操作デバイスは、スリットランプ顕微鏡システム1を操作するためのデバイスや、情報入力を行うためのデバイスを含む。操作デバイスは、例えば、ボタン、スイッチ、レバー、ダイアル、ハンドル、ノブ、マウス、キーボード、トラックボール、操作パネルなどを含む。ユーザーインターフェイスは、タッチスクリーンのように表示機能及び操作機能の双方を有するデバイスを含んでもよい。
<Other elements>
1A and 1B, the slit lamp microscope system 1 may include a user interface. The user interface includes, for example, a display device and an operation device. The display device operates under the control of the control unit 7. The display device may be a flat panel display such as an LCD. The operation device includes a device for operating the slit lamp microscope system 1 and a device for inputting information. The operation device includes, for example, a button, a switch, a lever, a dial, a handle, a knob, a mouse, a keyboard, a trackball, an operation panel, and the like. The user interface may include a device having both a display function and an operation function, such as a touch screen.

ユーザーインターフェイスは、例えば、関連情報100(関心位置情報)の登録、作成、編集などに使用可能である。また、制御部7は、スリットランプ顕微鏡システム1により取得された画像や情報を表示デバイスに表示させることができる。 The user interface can be used, for example, to register, create, and edit related information 100 (location of interest information). In addition, the control unit 7 can display images and information acquired by the slit lamp microscope system 1 on a display device.

<アライメント>
被検眼Eに対するスリットランプ顕微鏡システム1のアライメントについて説明する。一般に、アライメントは、被検眼Eの撮影や測定のために好適な位置に装置光学系を配置させる動作である。本態様のアライメントは、図5に示すような複数の前眼部画像(一連の画像、動画像、画像群、画像セットなど)を取得するために好適な位置に照明系2及び撮影系3を配置させる動作である。
<Alignment>
The following describes alignment of the slit lamp microscope system 1 with respect to the subject's eye E. Generally, alignment is an operation for disposing the device optical system at a suitable position for photographing and measuring the subject's eye E. Alignment in this embodiment is an operation for disposing the illumination system 2 and the photographing system 3 at suitable positions for acquiring a plurality of anterior segment images (a series of images, a video image, an image group, an image set, etc.) as shown in FIG.

眼科装置のアライメントには様々な手法がある。以下、幾つかのアライメント手法を例示するが、本態様に適用可能な手法はこれらに限定されない。 There are various methods for aligning ophthalmic devices. Below, some alignment methods are given as examples, but the methods that can be applied to this embodiment are not limited to these.

本態様に適用可能なアライメント手法としてステレオアライメントがある。ステレオアライメントは、2以上の異なる方向から前眼部を撮影可能な眼科装置において適用可能であり、その具体的な手法は、本出願人による特開2013-248376号公報などに開示されている。ステレオアライメントは、例えば次の工程を含む:2以上の前眼部カメラが前眼部を異なる方向から撮影して2以上の撮影画像を取得する工程;プロセッサがこれら撮影画像を解析して被検眼の3次元位置を求める工程;求められた3次元位置に基づいてプロセッサが光学系の移動制御を行う工程。これにより、光学系(本例では照明系2及び撮影系3)が、被検眼に対して好適な位置に配置される。典型的なステレオアライメントでは、被検眼の瞳孔(瞳孔の中心又は重心)の位置が基準とされる。 One alignment method that can be applied to this embodiment is stereo alignment. Stereo alignment can be applied to an ophthalmic device capable of photographing the anterior eye from two or more different directions, and a specific method thereof is disclosed in, for example, Japanese Patent Application Laid-Open Publication No. 2013-248376 filed by the present applicant. Stereo alignment includes, for example, the following steps: a step in which two or more anterior eye cameras photograph the anterior eye from different directions to obtain two or more photographed images; a step in which a processor analyzes these photographed images to determine the three-dimensional position of the subject's eye; and a step in which the processor controls the movement of the optical system based on the determined three-dimensional position. This allows the optical system (illumination system 2 and photographing system 3 in this example) to be positioned in a suitable position relative to the subject's eye. In a typical stereo alignment, the position of the pupil (center or center of gravity of the pupil) of the subject's eye is used as the reference.

このようなステレオアライメントの他にも、アライメント光により得られるプルキンエ像を利用した手法や、光テコを利用した手法や、アライメント指標を利用した手法など、任意の公知のアライメント手法を採用することが可能である。プルキンエ像を利用した手法や光テコやアライメント指標を利用した手法では、被検眼の角膜頂点の位置が基準とされる。 In addition to this type of stereo alignment, any known alignment method can be used, such as a method using a Purkinje image obtained by alignment light, a method using an optical lever, or a method using an alignment index. In the method using a Purkinje image, or the method using an optical lever or alignment index, the position of the corneal apex of the test eye is used as the reference.

なお、以上の例示を含む従来の典型的なアライメント手法は、被検眼の軸と光学系の光軸とを一致させることを目的として行われるが、本態様では、スキャン開始位置に対応する位置に照明系2及び撮影系3を配置させるようにアライメントを実行することが可能である。 Note that while typical conventional alignment methods, including the above examples, are performed with the aim of aligning the axis of the subject's eye with the optical axis of the optical system, in this embodiment, it is possible to perform alignment so that the illumination system 2 and the imaging system 3 are positioned at a position corresponding to the scan start position.

本態様におけるアライメントの第1の例として、上記したアライメント手法のいずれかを適用して被検眼Eの瞳孔又は角膜頂点を基準としたアライメントを行った後、予め設定された角膜半径の標準値に相当する距離だけ、又は、予め設定された角膜半径の標準値に所定値を加算した値に相当する距離だけ、照明系2及び撮影系3を(X方向に)移動することができる。なお、標準値を用いる代わりに、予め取得された被検眼Eの角膜半径の測定値を用いてもよい。 As a first example of alignment in this embodiment, after performing alignment based on the pupil or corneal apex of the test eye E by applying any of the alignment methods described above, the illumination system 2 and the imaging system 3 can be moved (in the X direction) by a distance equivalent to a preset standard value of the corneal radius, or a distance equivalent to a value obtained by adding a predetermined value to the preset standard value of the corneal radius. Note that instead of using the standard value, a previously obtained measured value of the corneal radius of the test eye E may be used.

第2の例として、上記したアライメント手法のいずれかを適用して被検眼Eの瞳孔又は角膜頂点を基準としたアライメントを行った後、被検眼Eの前眼部の画像を解析して角膜半径を測定し、この測定値に相当する距離だけ、又は、この測定値に所定値を加算した値に相当する距離だけ、照明系2及び撮影系3を(X方向に)移動することができる。本例で解析される前眼部の画像は、例えば、撮影系3により得られた前眼部画像、又は、他の画像である。他の画像は、前眼部カメラにより得られた画像、前眼部OCTにより得られた画像など、任意の画像であってよい。 As a second example, after performing alignment based on the pupil or corneal apex of the subject's eye E by applying any of the alignment methods described above, an image of the anterior segment of the subject's eye E is analyzed to measure the corneal radius, and the illumination system 2 and the imaging system 3 can be moved (in the X direction) by a distance equivalent to this measurement value or a distance equivalent to the measurement value plus a predetermined value. The image of the anterior segment analyzed in this example is, for example, an anterior segment image obtained by the imaging system 3, or another image. The other image may be any image, such as an image obtained by an anterior segment camera or an anterior segment OCT.

第3の例として、ステレオアライメント用の前眼部カメラ又は撮影系3により得られた前眼部の画像を解析して角膜の第1端部を求め、ステレオアライメントを適用することにより、この第1端部に対応する位置に、又は、この第1端部から所定距離だけ外側に偏位した位置に、照明系2及び撮影系3を移動することができる。 As a third example, an image of the anterior eye obtained by an anterior eye camera or imaging system 3 for stereo alignment can be analyzed to determine the first end of the cornea, and by applying stereo alignment, the illumination system 2 and imaging system 3 can be moved to a position corresponding to this first end or to a position shifted outward a predetermined distance from this first end.

なお、上記したアライメント手法のいずれかを適用して被検眼Eの瞳孔又は角膜頂点を基準としたアライメントを実行し、これにより決定された位置からスリット光によるスキャンを開始するようにしてもよい。この場合においても、角膜Cを含む3次元領域(例えば、角膜Cの全体を含む3次元領域)をスキャンするようにスキャンシーケンスを設定することができる。例えば、瞳孔又は角膜頂点を基準としたアライメントにより決定された位置から左方にスキャンを行った後、右方にスキャンを行うように、スキャンシーケンスが設定される。 It is also possible to apply any of the above-mentioned alignment methods to perform alignment based on the pupil or corneal apex of the subject's eye E, and start scanning with the slit light from the position determined thereby. Even in this case, the scan sequence can be set to scan a three-dimensional area including the cornea C (e.g., a three-dimensional area including the entire cornea C). For example, the scan sequence is set to scan to the left from the position determined by alignment based on the pupil or corneal apex, and then scan to the right.

<その他の事項>
スリットランプ顕微鏡システム1は、被検眼Eを固視させるための光(固視光)を出力する固視系を備えていてよい。固視系は、典型的には、少なくとも1つの可視光源(固視光源)、又は、風景チャートや固視標等の画像を表示する表示デバイスを含む。固視系は、例えば、照明系2又は撮影系3と同軸又は非同軸に配置される。固視系は、装置光学系の光路を通じて固視標を被検者に提示する内部固視系、及び/又は、当該光路の外から固視標を被検者に提示する外部固視系を含んでいてよい。
<Other matters>
The slit lamp microscope system 1 may include a fixation system that outputs light (fixation light) for fixating the subject's eye E. The fixation system typically includes at least one visible light source (fixation light source) or a display device that displays an image such as a landscape chart or a fixation target. The fixation system is arranged, for example, coaxially or non-coaxially with the illumination system 2 or the imaging system 3. The fixation system may include an internal fixation system that presents a fixation target to the subject through an optical path of the device optical system, and/or an external fixation system that presents a fixation target to the subject from outside the optical path.

スリットランプ顕微鏡システム1により取得可能な画像の種別は、図5に示すような複数の前眼部画像に限定されない。例えば、スリットランプ顕微鏡システム1は、複数の前眼部画像に基づく3次元画像、この3次元画像に基づくレンダリング画像、徹照像、被検眼に装用されたコンタクトレンズの動きを表す動画像、蛍光剤適用によるコンタクトレンズと角膜表面との隙間を表す画像などがある。レンダリング画像については他の態様において説明する。徹照像は、照明光の網膜反射を利用して眼内の混濁や異物を描出する徹照法により得られる画像である。なお、眼底撮影、角膜内皮細胞撮影、マイボーム腺撮影などが可能であってもよい。 The types of images that can be acquired by the slit lamp microscope system 1 are not limited to multiple anterior segment images as shown in FIG. 5. For example, the slit lamp microscope system 1 can acquire three-dimensional images based on multiple anterior segment images, rendering images based on these three-dimensional images, transillumination images, moving images showing the movement of a contact lens worn on the subject's eye, and images showing the gap between the contact lens and the corneal surface due to the application of a fluorescent agent. Rendering images will be described in other aspects. Transillumination images are images obtained by a transillumination method that uses the retinal reflection of illumination light to depict opacities or foreign bodies within the eye. Fundus photography, corneal endothelial cell photography, meibomian gland photography, etc. may also be possible.

スリットランプ顕微鏡システム1(データ処理部8)は解析処理を実行可能であってもよい。例えば、スリットランプ顕微鏡システム1は、任意の前眼部パラメータを算出可能であってよい。前眼部パラメータは、前眼部の形態を表す値である。前眼部パラメータの例として、角膜前面曲率半径、角膜後面曲率半径、水晶体前面曲率半径、水晶体後面曲率半径、角膜径(縦径、横径(White-to-White))、角膜厚(中心厚、周辺厚)、水晶体厚、前房深度、前房容積、瞳孔径、瞳孔中心(偏心)などがある。また、前眼部パラメータは、形状分布データであってよく、例えば、軸方向湾曲マップ(アキシャル曲率マップ)、接曲率マップ(タンジェンシャル曲率マップ)、隆起マップ(エレベーションマップ)、屈折力マップ、厚さマップ(パキメトリーマップ)、波面収差マップなど、各種の角膜形状マップであってよい。また、前眼部パラメータは、隅角パラメータを含んでいてもよい。隅角パラメータの例として、AOD(angle opening distance)、ACA(anterior chamber angle)、TISA(trabecular iris space area)、ARA(angle recess area)、AtA(angle-to-angle distance)などが知られている。前眼部パラメータ演算の手法は公知である。典型的には、前眼部パラメータ演算は、計測対象となる部位及び/又は位置を特定するための処理(例えば、セグメンテーション、特徴点検出など)と、特定された部位及び/又は位置に基づき前眼部パラメータの値を求める計測処理(例えば、距離計測、比演算、角度演算など)とを含んでいる。 The slit lamp microscope system 1 (data processing unit 8) may be capable of performing analysis processing. For example, the slit lamp microscope system 1 may be capable of calculating any anterior segment parameter. The anterior segment parameter is a value that represents the shape of the anterior segment. Examples of the anterior segment parameter include the radius of curvature of the anterior cornea, the radius of curvature of the posterior cornea, the radius of curvature of the anterior lens, the radius of curvature of the posterior lens, the corneal diameter (vertical diameter, horizontal diameter (white-to-white)), the corneal thickness (central thickness, peripheral thickness), the lens thickness, the anterior chamber depth, the anterior chamber volume, the pupil diameter, and the pupil center (eccentricity). The anterior segment parameter may be shape distribution data, and may be, for example, various corneal shape maps such as an axial curvature map, a tangential curvature map, an elevation map, a refractive power map, a thickness map (pachymetry map), and a wavefront aberration map. The anterior segment parameter may also include an angle parameter. Known examples of angle parameters include AOD (angle opening distance), ACA (anterior chamber angle), TISA (trabecular iris space area), ARA (angle recess area), and AtA (angle-to-angle distance). Methods for calculating anterior segment parameters are known. Typically, anterior segment parameter calculation includes a process for identifying the area and/or position to be measured (e.g., segmentation, feature point detection, etc.) and a measurement process for determining the value of the anterior segment parameter based on the identified area and/or position (e.g., distance measurement, ratio calculation, angle calculation, etc.).

<光学系の他の態様>
幾つかの例示的な態様に係るスリットランプ顕微鏡システムは、図8に示す構成を備えていてよい。図8の構成は、図1Aの光学系の1つの例である。なお、本態様のスリットランプ顕微鏡システムは、図8に示す要素群に加え、例えば、前述した制御部7、データ処理部8、通信部9、記憶部10などを備えている。特に言及しない限り、上記したスリットランプ顕微鏡システム1に係る事項を本態様に適用することができる。
<Other Aspects of the Optical System>
A slit lamp microscope system according to some exemplary aspects may have the configuration shown in Fig. 8. The configuration in Fig. 8 is one example of the optical system in Fig. 1A. Note that the slit lamp microscope system according to this aspect includes, in addition to the group of elements shown in Fig. 8, for example, the control unit 7, data processing unit 8, communication unit 9, storage unit 10, and the like described above. Unless otherwise specified, the matters related to the slit lamp microscope system 1 described above can be applied to this aspect.

図8に示す照明系20はスリットランプ顕微鏡システム1の照明系2の例であり、左撮影系30L及び右撮影系30Rは撮影系3の例である。以下、照明系20を照明系2と記載することや、左撮影系30L及び/又は右撮影系30Rを撮影系3と記載することがある。幾つかの態様において、左撮影系30L及び右撮影系30Rの一方のみを設け、これを撮影系3の例として構成してもよい。符号20aは照明系20の光軸(照明光軸)を示し、符号30Laは左撮影系30Lの光軸(左撮影光軸)を示し、符号30Raは右撮影系30Rの光軸(右撮影光軸)を示す。左撮影光軸30Laと右撮影光軸30Raとは、互いに異なる向きに配置されている。照明光軸20aと左撮影光軸30Laとがなす角度をθLで示し、照明光軸20aと右撮影光軸30Raとがなす角度をθRで示す。角度θLと角度θRとは、互いに等しくてもよいし異なってもよい。照明光軸20aと左撮影光軸30Laと右撮影光軸30Raとは、一点で交差する。図1Aと同様に、この交点のZ座標をZ0で示す。 The illumination system 20 shown in FIG. 8 is an example of the illumination system 2 of the slit lamp microscope system 1, and the left imaging system 30L and the right imaging system 30R are examples of the imaging system 3. Hereinafter, the illumination system 20 may be described as the illumination system 2, and the left imaging system 30L and/or the right imaging system 30R may be described as the imaging system 3. In some embodiments, only one of the left imaging system 30L and the right imaging system 30R may be provided and configured as an example of the imaging system 3. Symbol 20a indicates the optical axis (illumination optical axis) of the illumination system 20, symbol 30La indicates the optical axis (left imaging optical axis) of the left imaging system 30L, and symbol 30Ra indicates the optical axis (right imaging optical axis) of the right imaging system 30R. The left imaging optical axis 30La and the right imaging optical axis 30Ra are arranged in different directions. The angle between the illumination optical axis 20a and the left photographing optical axis 30La is indicated as θL, and the angle between the illumination optical axis 20a and the right photographing optical axis 30Ra is indicated as θR. The angles θL and θR may be equal to each other or may be different. The illumination optical axis 20a, the left photographing optical axis 30La, and the right photographing optical axis 30Ra intersect at one point. As in FIG. 1A, the Z coordinate of this intersection is indicated as Z0.

移動機構6は、図1Aに示す移動機構6と同じ要素であってよく、照明系20、左撮影系30L及び右撮影系30Rを、矢印49で示す方向(X方向)に移動可能である。典型的には、照明系20、左撮影系30L及び右撮影系30Rは、少なくともX方向に移動可能なステージ上に載置されており、且つ、移動機構6は、制御部7からの制御信号にしたがって、この可動ステージを移動させる。 The moving mechanism 6 may be the same element as the moving mechanism 6 shown in FIG. 1A, and can move the illumination system 20, the left imaging system 30L, and the right imaging system 30R in the direction indicated by the arrow 49 (X direction). Typically, the illumination system 20, the left imaging system 30L, and the right imaging system 30R are placed on a stage that is movable at least in the X direction, and the moving mechanism 6 moves this movable stage in accordance with a control signal from the control unit 7.

照明系20は、被検眼Eの前眼部にスリット光を照射する。照明系20は、従来のスリットランプ顕微鏡の照明系と同様に、被検眼Eから遠い側から順に、照明光源21と、正レンズ22と、スリット形成部23と、対物レンズ群24及び25とを含む。 The illumination system 20 irradiates slit light onto the anterior segment of the subject's eye E. Similar to the illumination system of a conventional slit lamp microscope, the illumination system 20 includes, in order from the side furthest from the subject's eye E, an illumination light source 21, a positive lens 22, a slit forming section 23, and objective lens groups 24 and 25.

照明光源21から出力された照明光(典型的には可視光)は、正レンズ22により屈折されてスリット形成部23に投射される。投射された照明光の一部は、スリット形成部23が形成するスリットを通過してスリット光となる。生成されたスリット光は、対物レンズ群24及び25により屈折された後、ビームスプリッタ47により反射され、被検眼Eの前眼部に照射される。 The illumination light (typically visible light) output from the illumination light source 21 is refracted by the positive lens 22 and projected onto the slit forming section 23. A portion of the projected illumination light passes through the slit formed by the slit forming section 23 to become slit light. The generated slit light is refracted by the objective lens groups 24 and 25, and then reflected by the beam splitter 47 and irradiated onto the anterior segment of the subject's eye E.

左撮影系30Lは、反射器31Lと、結像レンズ32Lと、撮像素子33Lとを含む。反射器31L及び結像レンズ32Lは、照明系20によりスリット光が照射されている前眼部からの光(左撮影系30Lの方向に進行する光)を撮像素子33Lに導く。 The left imaging system 30L includes a reflector 31L, an imaging lens 32L, and an image sensor 33L. The reflector 31L and the imaging lens 32L guide light from the anterior segment irradiated with slit light by the illumination system 20 (light traveling in the direction of the left imaging system 30L) to the image sensor 33L.

前眼部から左撮影系30Lの方向に進行する光は、スリット光が照射されている前眼部からの光であって、照明光軸20aから離れる方向に進行する光である。反射器31Lは、当該光を照明光軸20aに近づく方向に反射する。結像レンズ32Lは、反射器31Lにより反射された光を屈折して撮像素子33Lの撮像面34Lに結像する。撮像素子33Lは、当該光を撮像面34Lにて受光する。 The light traveling from the anterior segment toward the left imaging system 30L is light from the anterior segment irradiated with the slit light, and is light traveling in a direction away from the illumination optical axis 20a. The reflector 31L reflects the light in a direction approaching the illumination optical axis 20a. The imaging lens 32L refracts the light reflected by the reflector 31L and forms an image on the imaging surface 34L of the imaging element 33L. The imaging element 33L receives the light on the imaging surface 34L.

前述したスリットランプ顕微鏡システム1と同様に、左撮影系30Lは、移動機構6による照明系20、左撮影系30L及び右撮影系30Rの移動と並行して繰り返し撮影を行う。これにより複数の前眼部画像(画像群)が得られる。 As with the slit lamp microscope system 1 described above, the left imaging system 30L repeatedly captures images in parallel with the movement of the illumination system 20, the left imaging system 30L, and the right imaging system 30R by the movement mechanism 6. This allows multiple anterior segment images (image group) to be obtained.

また、前述したスリットランプ顕微鏡システム1と同様に、照明光軸20aに沿う物面と、反射器31L及び結像レンズ32Lを含む光学系と、撮像面34Lとは、シャインプルーフの条件を満足する。より具体的には、反射器31Lによる撮影系30Lの光路の偏向を考慮すると、照明光軸20aを通るYZ面(物面を含む)と、結像レンズ32Lの主面と、撮像面34Lとが、同一の直線上にて交差する。これにより、左撮影系30Lは、物面内の全ての位置(例えば、角膜前面から水晶体後面までの範囲)にピントを合わせて撮影を行うことができる。 Also, similar to the slit lamp microscope system 1 described above, the object plane along the illumination optical axis 20a, the optical system including the reflector 31L and the imaging lens 32L, and the imaging plane 34L satisfy the Scheimpflug condition. More specifically, when considering the deflection of the optical path of the imaging system 30L by the reflector 31L, the YZ plane (including the object plane) passing through the illumination optical axis 20a, the principal surface of the imaging lens 32L, and the imaging plane 34L intersect on the same straight line. This allows the left imaging system 30L to focus on all positions within the object plane (for example, in the range from the anterior surface of the cornea to the posterior surface of the crystalline lens) and perform imaging.

右撮影系30Rは、反射器31Rと、結像レンズ32Rと、撮像素子33Rとを含む。左撮影系30Lと同様に、右撮影系30Rは、照明系20によりスリット光が照射されている前眼部からの光を、反射器31R及び結像レンズ32Rによって、撮像素子33Rの撮像面34Rに導く。更に、左撮影系30Lと同様に、右撮影系30Rは、移動機構6による照明系20、左撮影系30L及び右撮影系30Rの移動と並行して繰り返し撮影を行うことで、複数の前眼部画像(画像群)を取得する。左撮影系30Lと同様に、照明光軸20aに沿う物面と、反射器31R及び結像レンズ32Rを含む光学系と、撮像面34Rとは、シャインプルーフの条件を満足する。 The right photographing system 30R includes a reflector 31R, an imaging lens 32R, and an image sensor 33R. Similar to the left photographing system 30L, the right photographing system 30R guides light from the anterior eye, which is irradiated with slit light by the illumination system 20, to the imaging surface 34R of the image sensor 33R by the reflector 31R and the imaging lens 32R. Furthermore, similar to the left photographing system 30L, the right photographing system 30R obtains multiple anterior eye images (image group) by repeatedly photographing in parallel with the movement of the illumination system 20, the left photographing system 30L, and the right photographing system 30R by the movement mechanism 6. Similar to the left photographing system 30L, the object surface along the illumination optical axis 20a, the optical system including the reflector 31R and the imaging lens 32R, and the imaging surface 34R satisfy the Scheimpflug condition.

制御部7は、左撮影系30Lによる繰り返し撮影と、右撮影系30Rによる繰り返し撮影とを同期させることができる。これにより、左撮影系30Lにより得られた複数の前眼部画像と、右撮影系30Rにより得られた複数の前眼部画像との間の対応関係が得られる。この対応関係は、時間的な対応関係であり、より具体的には、実質的に同時に取得された画像同士をペアリングするものである。 The control unit 7 can synchronize the repeated photographing by the left photographing system 30L and the repeated photographing by the right photographing system 30R. This allows a correspondence relationship to be obtained between the multiple anterior eye images obtained by the left photographing system 30L and the multiple anterior eye images obtained by the right photographing system 30R. This correspondence relationship is a temporal correspondence relationship, and more specifically, images acquired substantially simultaneously are paired together.

或いは、制御部7又はデータ処理部8は、左撮影系30Lにより得られた複数の前眼部画像と、右撮影系30Rにより得られた複数の前眼部画像との間の対応関係を求める処理を実行することができる。例えば、制御部7又はデータ処理部8は、左撮影系30Lから逐次に入力される前眼部画像と、右撮影系30Rから逐次に入力される前眼部画像とを、それらの入力タイミングによってペアリングすることができる。 Alternatively, the control unit 7 or the data processing unit 8 can execute a process to determine the correspondence between multiple anterior segment images obtained by the left imaging system 30L and multiple anterior segment images obtained by the right imaging system 30R. For example, the control unit 7 or the data processing unit 8 can pair the anterior segment images sequentially input from the left imaging system 30L and the anterior segment images sequentially input from the right imaging system 30R based on the input timing of the images.

本態様は、動画撮影部40を更に含む。動画撮影部40は、左撮影系30L及び右撮影系30Rによる撮影と並行して、被検眼Eの前眼部を固定位置から動画撮影する。「固定位置から動画撮影」とは、前眼部スキャンのために照明系20、左撮影系30L及び右撮影系30Rが移動されるときに、動画撮影部40は移動されないことを表す。なお、動画撮影部40は、静止画撮影を行うことも可能である。 This embodiment further includes a video capture unit 40. The video capture unit 40 captures video of the anterior segment of the subject's eye E from a fixed position in parallel with the capture by the left and right imaging systems 30L and 30R. "Capturing video from a fixed position" means that the video capture unit 40 does not move when the illumination system 20, the left and right imaging systems 30L and 30R are moved to scan the anterior segment. The video capture unit 40 is also capable of capturing still images.

本態様の動画撮影部40は、照明系20と同軸に配置されているが、その配置はこれに限定されない。例えば、照明系20と非同軸に動画撮影部を配置することができる。また、動画撮影部40が感度を有する帯域の照明光で前眼部を照明する光学系が設けられていてもよい。 In this embodiment, the video capture unit 40 is arranged coaxially with the illumination system 20, but the arrangement is not limited to this. For example, the video capture unit can be arranged non-coaxially with the illumination system 20. In addition, an optical system may be provided that illuminates the anterior segment with illumination light in a band to which the video capture unit 40 is sensitive.

ビームスプリッタ47を透過した光は、反射器48により反射されて動画撮影部40に入射する。動画撮影部40に入射した光は、対物レンズ41により屈折された後、結像レンズ42によって撮像素子43の撮像面に結像される。撮像素子43はエリアセンサである。撮像素子43は、例えば、可視光及び赤外光のいずれか一方又は双方の帯域に感度を有する。 The light that passes through the beam splitter 47 is reflected by the reflector 48 and enters the video capture unit 40. The light that enters the video capture unit 40 is refracted by the objective lens 41, and then an image is formed on the imaging surface of the image sensor 43 by the imaging lens 42. The image sensor 43 is an area sensor. The image sensor 43 has sensitivity to, for example, either one or both of the visible light and infrared light bands.

動画撮影部40が設けられている場合、被検眼Eの動きをモニタすることや、トラッキングを行うことができる。また、動画撮影部40を用いてアライメントを行うことも可能である。 If a video capture unit 40 is provided, it is possible to monitor and track the movement of the subject's eye E. It is also possible to perform alignment using the video capture unit 40.

照明系20の出力波長及び動画撮影部40の検出波長に応じ、ビームスプリッタ47は、例えばダイクロイックミラー又はハーフミラーである。 Depending on the output wavelength of the illumination system 20 and the detection wavelength of the video capture unit 40, the beam splitter 47 is, for example, a dichroic mirror or a half mirror.

本態様のスリットランプ顕微鏡の幾つかの特徴、幾つかの作用、及び幾つかの効果について説明する。 Some features, functions, and effects of this slit lamp microscope are described below.

前述したスリットランプ顕微鏡システム1の撮影系3の例として、本態様は、左撮影系30Lと右撮影系30Rとを提供する。左撮影系30Lは、スリット光が照射されている前眼部からの光を導く反射器31L及び結像レンズ32L(第1光学系)と、導かれた光を撮像面34L(第1撮像面)で受光する撮像素子33L(第1撮像素子)とを含む。同様に、右撮影系30Rは、スリット光が照射されている前眼部からの光を導く反射器31R及び結像レンズ32R(第2光学系)と、導かれた光を撮像面34R(第2撮像面)で受光する撮像素子33R(第2撮像素子)とを含む。 As an example of the imaging system 3 of the slit lamp microscope system 1 described above, this embodiment provides a left imaging system 30L and a right imaging system 30R. The left imaging system 30L includes a reflector 31L and an imaging lens 32L (first optical system) that guide light from the anterior segment of the eye irradiated with slit light, and an imaging element 33L (first imaging element) that receives the guided light on an imaging surface 34L (first imaging surface). Similarly, the right imaging system 30R includes a reflector 31R and an imaging lens 32R (second optical system) that guide light from the anterior segment of the eye irradiated with slit light, and an imaging element 33R (second imaging element) that receives the guided light on an imaging surface 34R (second imaging surface).

左撮影系30Lの光軸(左撮影光軸30La)と右撮影系30Rの光軸(右撮影光軸30Ra)とは、互いに異なる向きに配置されている。更に、照明系20の光軸(照明光軸20a)に沿う物面と、反射器31L及び結像レンズ32Lと、撮像面34Lとは、シャインプルーフの条件を満足する。同様に、当該物面と、反射器31L及び結像レンズ32Lと、撮像面34Lとは、シャインプルーフの条件を満足する。 The optical axis of the left imaging system 30L (left imaging optical axis 30La) and the optical axis of the right imaging system 30R (right imaging optical axis 30Ra) are arranged in different directions. Furthermore, the object surface along the optical axis of the illumination system 20 (illumination optical axis 20a), the reflector 31L, the imaging lens 32L, and the imaging surface 34L satisfy the Scheimpflug condition. Similarly, the object surface, the reflector 31L, the imaging lens 32L, and the imaging surface 34L satisfy the Scheimpflug condition.

左撮影系30Lは、移動機構6による照明系20、左撮影系30L及び右撮影系30Rの移動と並行して繰り返し撮影を行うことにより第1画像群を取得する。同様に、右撮影系30Rは、移動機構6による照明系20、左撮影系30L及び右撮影系30Rの移動と並行して繰り返し撮影を行うことにより第2画像群を取得する。 The left imaging system 30L acquires a first group of images by repeatedly capturing images in parallel with the movement of the illumination system 20, the left imaging system 30L, and the right imaging system 30R by the movement mechanism 6. Similarly, the right imaging system 30R acquires a second group of images by repeatedly capturing images in parallel with the movement of the illumination system 20, the left imaging system 30L, and the right imaging system 30R by the movement mechanism 6.

制御部7は、例えば、左撮影系30L及び右撮影系30Rが並行して被検眼Eの前眼部に1回のスキャンを適用するように、照明系20、左撮影系30L、右撮影系30R、及び移動機構6の制御を行うことができる。データ処理部8は、このスキャンで収集された左右一対の画像群から、スキャン範囲に対応する一連の画像を選択して1つの画像群を作成することができる。画像群評価部81は、作成された画像群の品質評価を行うことができる。この画像群の品質が良好であると評価された場合、制御部7は、この画像群を所定の外部装置に向けて送信するように通信部9を制御することができる。 The control unit 7 can control the illumination system 20, the left imaging system 30L, the right imaging system 30R, and the moving mechanism 6, for example, so that the left imaging system 30L and the right imaging system 30R apply one scan to the anterior segment of the subject's eye E in parallel. The data processing unit 8 can select a series of images corresponding to the scan range from the pair of left and right image groups collected in this scan to create one image group. The image group evaluation unit 81 can evaluate the quality of the created image group. If the quality of this image group is evaluated to be good, the control unit 7 can control the communication unit 9 to transmit this image group to a specified external device.

この画像群の品質が良好でないと評価された場合、制御部7は、被検眼Eの前眼部に新たなスキャン(1回以上のスキャン)を適用するように、照明系20、左撮影系30L、右撮影系30R、及び移動機構6の制御を行うことができる。この追加的なスキャンにより、左撮影系30Lは、1回以上のスキャンに対応した1以上の第1画像群を収集し、且つ、右撮影系30Rは、1回以上のスキャンに対応した1以上の第2画像群を収集する。画像セット作成部82は、例えば、第1回目のスキャン及び追加的なスキャンで得られた2以上の第1画像群から、スキャン範囲に対応する第1の一連の画像を選択して第1画像セットを作成し、且つ、第1回目のスキャン及び追加的なスキャンで得られた2以上の第2画像群から、スキャン範囲に対応する第2の一連の画像を選択して第2画像セットを作成することができる。或いは、画像セット作成部82は、第1回目のスキャン及び追加的なスキャンで得られた2以上の第1画像群及び2以上の第2画像群から、スキャン範囲に対応する一連の画像を選択して画像セットを作成するように構成されてもよい。前述したスリットランプ顕微鏡システム1に関する任意の事項(構成、制御、処理、作用、機能など)を本態様に組み合わせることが可能である。 If the quality of this image group is evaluated as not good, the control unit 7 can control the illumination system 20, the left imaging system 30L, the right imaging system 30R, and the moving mechanism 6 to apply a new scan (one or more scans) to the anterior segment of the subject's eye E. By this additional scan, the left imaging system 30L collects one or more first image groups corresponding to one or more scans, and the right imaging system 30R collects one or more second image groups corresponding to one or more scans. The image set creation unit 82 can, for example, select a first series of images corresponding to the scan range from two or more first image groups obtained by the first scan and the additional scan to create a first image set, and select a second series of images corresponding to the scan range from two or more second image groups obtained by the first scan and the additional scan to create a second image set. Alternatively, the image set creation unit 82 may be configured to select a series of images corresponding to the scan range from two or more first image groups and two or more second image groups obtained by the first scan and the additional scan to create an image set. Any aspect of the slit lamp microscope system 1 described above (configuration, control, processing, action, function, etc.) can be combined with this embodiment.

このような本態様によれば、スリット光が照射されている前眼部を、互いに異なる方向からそれぞれ動画撮影することができる。一方の撮影系により取得された画像にアーティファクトが含まれている場合であっても、他方の撮影系により当該画像と実質的に同時に取得された画像にはアーティファクトが含まれていない場合がある。また、双方の撮影系により実質的に同時に取得された一対の画像の双方にアーティファクトが含まれている場合であって、一方の画像中のアーティファクトが注目領域(例えばスリット光照射領域)に重なっている場合でも、他方の画像中のアーティファクトが注目領域に重なっていない場合がある。したがって、好適な画像を取得できる可能性が高まる。したがって、良好な品質の画像群及び/又は画像セットが得られる確率を更に向上させることが可能になる。 According to this aspect, the anterior segment of the eye irradiated with slit light can be captured in video from different directions. Even if an image acquired by one imaging system contains an artifact, an image acquired by the other imaging system substantially simultaneously with the image may not contain the artifact. Furthermore, even if both of a pair of images acquired substantially simultaneously by both imaging systems contain artifacts and an artifact in one image overlaps with a region of interest (e.g., a region irradiated with slit light), an artifact in the other image may not overlap with the region of interest. This increases the likelihood of acquiring a suitable image. This further increases the probability of acquiring a group and/or set of images of good quality.

なお、撮影系3は、左撮影系30L(第1撮影系)及び右撮影系30R(第2撮影系)に加え、同様の構成の第3撮影系、・・・、第K撮影系(Kは3以上の整数)を含んでいてもよい。これにより、光学系の構造は複雑化するが、良好な品質の画像群及び/又は画像セットが得られる確率を更に向上させることが可能になる。本態様を実施しようとする者は、トレードオフの関係にあるこれらの事項(光学系の複雑度、及び、高品質な画像セットが得られる確率)を勘案してスリットランプ顕微鏡を設計することができる。 The imaging system 3 may include a third imaging system, ..., a Kth imaging system (K is an integer equal to or greater than 3) of a similar configuration in addition to the left imaging system 30L (first imaging system) and the right imaging system 30R (second imaging system). This complicates the structure of the optical system, but it is possible to further improve the probability of obtaining a good quality image group and/or image set. Those who wish to implement this embodiment can design a slit lamp microscope taking into account these trade-off factors (complexity of the optical system and probability of obtaining a high quality image set).

本態様の左撮影系30Lは、反射器31Lと結像レンズ32Lとを含む。反射器31Lは、スリット光が照射されている前眼部からの光であって、照明光軸20aから離れる方向に進行する光を、照明光軸20aに近づく方向に反射する。更に、結像レンズ32Lは、反射器31Lにより反射された光を撮像面34Lに結像させる。ここで、結像レンズ32Lは、1以上のレンズを含む。 The left imaging system 30L in this embodiment includes a reflector 31L and an imaging lens 32L. The reflector 31L reflects light from the anterior segment irradiated with the slit light, traveling in a direction away from the illumination optical axis 20a, in a direction toward the illumination optical axis 20a. Furthermore, the imaging lens 32L forms an image of the light reflected by the reflector 31L on the imaging surface 34L. Here, the imaging lens 32L includes one or more lenses.

同様に、右撮影系30Rは、反射器31Rと結像レンズ32Rとを含む。反射器31Rは、スリット光が照射されている前眼部からの光であって、照明光軸20aから離れる方向に進行する光を、照明光軸20aに近づく方向に反射する。更に、結像レンズ32Rは、反射器31Rにより反射された光を撮像面34Rに結像させる。ここで、結像レンズ32Rは、1以上のレンズを含む。 Similarly, the right imaging system 30R includes a reflector 31R and an imaging lens 32R. The reflector 31R reflects light from the anterior eye segment irradiated with the slit light, traveling in a direction away from the illumination optical axis 20a, in a direction toward the illumination optical axis 20a. Furthermore, the imaging lens 32R forms an image of the light reflected by the reflector 31R on the imaging surface 34R. Here, the imaging lens 32R includes one or more lenses.

このような構成によれば、装置の小型化を図ることが可能である。すなわち、撮像素子33L(33R)により取得された画像は、撮像面34L(34R)の反対側の面から延びるケーブルを通じて出力されるが、本構成によれば、照明光軸20aに比較的近接して位置する撮像素子33L(33R)の背面から被検眼Eとは反対方向に向かって、ケーブルを配置することができる。したがって、ケーブルの引き回しを好適に行うことができ、装置の小型化を図ることが可能になる。 This configuration allows the device to be made more compact. That is, the image acquired by the image sensor 33L (33R) is output through a cable extending from the surface opposite the image sensor 34L (34R), but with this configuration, the cable can be arranged from the back surface of the image sensor 33L (33R), which is located relatively close to the illumination optical axis 20a, toward the opposite direction to the subject's eye E. This allows the cable to be routed in an optimal manner, making it possible to make the device more compact.

また、本構成によれば、角度θL及び角度θRを大きく設定することが可能となるため、一方の撮影系により取得された画像にアーティファクトが含まれる場合において、他方の撮影系により当該画像と実質的に同時に取得された画像にアーティファクトが含まれない可能性を高めることができる。また、双方の撮影系により実質的に同時に取得された一対の画像の双方にアーティファクトが含まれる場合であって、一方の画像中のアーティファクトが注目領域(例えばスリット光照射領域)に重なっている場合において、他方の画像中のアーティファクトが注目領域に重なっている可能性を低減することができる。 In addition, with this configuration, since it is possible to set the angles θL and θR large, when an image acquired by one imaging system contains an artifact, it is possible to increase the likelihood that the image acquired by the other imaging system at substantially the same time as the image contains no artifact. Also, when a pair of images acquired substantially simultaneously by both imaging systems contain artifacts, and an artifact in one image overlaps with the region of interest (e.g., the slit light irradiation region), it is possible to reduce the likelihood that an artifact in the other image overlaps with the region of interest.

本態様は、動画撮影部40を含む。左撮影系30L及び右撮影系30Rは、移動機構6による照明系20、左撮影系30L及び右撮影系30Rの移動と並行して、前眼部を繰り返し撮影する。この繰り返し撮影と並行して、動画撮影部40は、前眼部を固定位置から動画撮影する。 This embodiment includes a video capture unit 40. The left and right capture systems 30L and 30R repeatedly capture images of the anterior segment in parallel with the movement of the illumination system 20, the left and right capture systems 30L and 30R by the movement mechanism 6. In parallel with this repeated capture, the video capture unit 40 captures video of the anterior segment from a fixed position.

このような構成によれば、スリット光による前眼部のスキャンと並行して固定位置(例えば正面)から動画撮影を行うことで、スキャン中における被検眼Eの状態を把握することや、被検眼Eの状態に応じた制御を行うことが可能である。 With this configuration, video recording is performed from a fixed position (e.g., the front) in parallel with scanning the anterior segment with slit light, making it possible to grasp the condition of the subject's eye E during scanning and to perform control according to the condition of the subject's eye E.

例えば、本態様のスリットランプ顕微鏡が、前述したスリットランプ顕微鏡システム1の画像群評価部81(画像セット評価部83)を含む場合において、本態様のスリットランプ顕微鏡は、左撮影系30L及び/又は右撮影系30Rにより取得された画像群(画像セット)が読影に耐えうる品質か否か評価することができる。画像群評価部81(画像セット評価部83)は、動画撮影部40との組み合わせにより、次のような動作を行うことが可能である。なお、ステレオアライメントのための2以上の前眼部カメラや、類似の撮影手段を用いて、同様の動作を行うことも可能である。 For example, when the slit lamp microscope of this embodiment includes the image group evaluation unit 81 (image set evaluation unit 83) of the slit lamp microscope system 1 described above, the slit lamp microscope of this embodiment can evaluate whether the image group (image set) acquired by the left imaging system 30L and/or the right imaging system 30R is of a quality suitable for interpretation. The image group evaluation unit 81 (image set evaluation unit 83) can perform the following operations in combination with the video capture unit 40. Note that similar operations can also be performed using two or more anterior eye cameras for stereo alignment or similar capture means.

動画撮影部40は、被検眼Eの前眼部へのスキャンの適用と並行して前眼部を固定位置から動画撮影する。この動画撮影は、例えば、制御部7の制御の下に行われる。つまり、制御部7は、被検眼Eの前眼部スキャンのために、照明系2(照明系20)と撮影系3(左撮影系30L及び/又は右撮影系30R)と移動機構6と動画撮影部40とを連係的に制御することができる。 The video capture unit 40 captures video of the anterior segment of the subject's eye E from a fixed position in parallel with the application of a scan to the anterior segment of the subject's eye E. This video capture is performed, for example, under the control of the control unit 7. In other words, the control unit 7 can coordinately control the illumination system 2 (illumination system 20), the capture system 3 (left capture system 30L and/or right capture system 30R), the moving mechanism 6, and the video capture unit 40 to scan the anterior segment of the subject's eye E.

この連係制御において、制御部7は、撮影系3の撮影レートと動画撮影部40の撮影レートとを同期させることが可能である。例えば、撮影系3の撮影レートと動画撮影部40の撮影レートとが等しく設定され、且つ、撮影系3の撮影タイミングと動画撮影部40の撮影タイミングとが一致される。これにより、スキャンにおいて撮影系3に取得されたフレーム群と、動画撮影部40に取得されたフレーム群とを、時間的に対応付けることができる。 In this linked control, the control unit 7 can synchronize the shooting rate of the imaging system 3 with the shooting rate of the video shooting unit 40. For example, the shooting rate of the imaging system 3 and the shooting rate of the video shooting unit 40 are set to be equal, and the shooting timing of the imaging system 3 and the shooting timing of the video shooting unit 40 are matched. This makes it possible to temporally correspond the frame group acquired by the imaging system 3 during scanning with the frame group acquired by the video shooting unit 40.

なお、撮影レート及び撮影タイミングの一方又は双方が異なる場合においても、例えば所定範囲内の時間差を許容することにより、スキャンにおいて撮影系3に取得されたフレーム群と、動画撮影部40に取得されたフレーム群とを、時間的に対応付けることが可能である。 Even if one or both of the imaging rate and the imaging timing are different, it is possible to temporally correspond the frame group acquired by the imaging system 3 during scanning with the frame group acquired by the video imaging unit 40, for example, by allowing a time difference within a predetermined range.

時間的に対応付けられた一対のフレーム(撮影系3により得られたフレームと、動画撮影部40により得られたフレームとの組)は、実質的に同時に取得されたと考えることができる。したがって、時間的に対応付けられた一対のフレームを考慮する際には、眼球運動による位置ずれを無視することができる。 A pair of frames that are temporally associated (a pair of a frame obtained by the imaging system 3 and a frame obtained by the video imaging unit 40) can be considered to have been acquired substantially simultaneously. Therefore, when considering a pair of frames that are temporally associated, positional deviations due to eye movement can be ignored.

このような前提の下、画像群評価部81(画像セット評価部83)は、動画撮影部40により取得された動画像(フレーム群)に基づいて、画像群(画像セット)に含まれる一連の画像の品質の評価を行うように構成されてよい。 Under such a premise, the image group evaluation unit 81 (image set evaluation unit 83) may be configured to evaluate the quality of a series of images included in the image group (image set) based on the video images (frame group) acquired by the video shooting unit 40.

このとき、画像群評価部81(画像セット評価部83)は、画像群(画像セット)に含まれる一連の画像と、動画撮影部40により取得された動画像に含まれる一連のフレームとの間の対応関係に基づいて、画像群(画像セット)の品質の評価を行うように構成されてよい。すなわち、画像群評価部81(画像セット評価部83)は、撮影系3により得られたフレーム群と、動画撮影部40により取得されたフレーム群との間の時間的な対応関係に基づいて、画像群(画像セット)の品質の評価を行うように構成されてよい。更に、画像群評価部81(画像セット評価部83)は、一連のフレーム中のランドマークと当該対応関係とに基づいて画像群(画像セット)の品質の評価を行うように構成されてよい。 At this time, the image group evaluation unit 81 (image set evaluation unit 83) may be configured to evaluate the quality of the image group (image set) based on the correspondence between a series of images included in the image group (image set) and a series of frames included in the video captured by the video capture unit 40. In other words, the image group evaluation unit 81 (image set evaluation unit 83) may be configured to evaluate the quality of the image group (image set) based on the temporal correspondence between the frame group obtained by the imaging system 3 and the frame group acquired by the video capture unit 40. Furthermore, the image group evaluation unit 81 (image set evaluation unit 83) may be configured to evaluate the quality of the image group (image set) based on the landmarks in the series of frames and the correspondence.

1つの具体例を説明する。本例では、撮影系3により得られたフレーム群F1~FN(前述)と、これと並行して動画撮影部40により取得されたフレーム群D1~DNとについて、フレームFnとフレームDnとが対応付けられているとする(n=1、2、・・・、N)。 One specific example will be described. In this example, for a group of frames F1 to FN (described above) obtained by the imaging system 3 and a group of frames D1 to DN obtained in parallel by the video imaging unit 40, frame Fn is associated with frame Dn (n=1, 2, ..., N).

画像群評価部81(画像セット評価部83)は、フレーム群D1~DNのそれぞれにおけるランドマークを特定する。ランドマークは、例えば虹彩に対応する画像領域(虹彩領域)であってよい。 The image group evaluation unit 81 (image set evaluation unit 83) identifies landmarks in each of the frame groups D1 to DN. The landmarks may be, for example, image regions corresponding to the iris (iris regions).

次に、画像群評価部81(画像セット評価部83)は、フレーム群D1~DNにおいてそれぞれ特定されたN個のランドマークの位置(例えば、空間的な位置の変化)に基づいて、フレーム群D1~DNの配列順序(空間的配列順序)を求める。 Next, the image group evaluation unit 81 (image set evaluation unit 83) determines the arrangement order (spatial arrangement order) of the frame groups D1 to DN based on the positions (e.g., changes in spatial position) of the N landmarks identified in each of the frame groups D1 to DN.

前述したように、フレーム群D1~DNは、この順序で時間的に配列されている(時間的配列順序)。時間的配列順序と空間的配列順序とが異なる場合、眼球運動の影響により順序が入れ替わったり位置ずれが生じたりした可能性がある。また、瞬きの影響によりフレームの飛びが発生した可能性がある。 As mentioned above, frame groups D1 to DN are arranged in this order over time (temporal arrangement order). If the temporal arrangement order differs from the spatial arrangement order, the order may have been changed or the positions may have shifted due to the influence of eye movement. Also, a skipped frame may have occurred due to the influence of a blink.

このような不具合が検出された場合、つまり時間的配列順序と空間的配列順序とが異なる場合、画像群評価部81(画像セット評価部83)は、この画像群(画像セット)の品質は良好でないと判定する。 If such a defect is detected, that is, if the temporal arrangement order and the spatial arrangement order differ, the image group evaluation unit 81 (image set evaluation unit 83) determines that the quality of this image group (image set) is not good.

このような構成によれば、スリット光による前眼部のスキャンと並行して(少なくともX方向及びY方向において)前眼部を広く描出した動画像を取得し、画像群(画像セット)に含まれる一連の画像の不具合を当該動画像を利用して検出することが可能である。 With this configuration, a moving image that depicts a wide area of the anterior segment (at least in the X and Y directions) can be acquired in parallel with scanning the anterior segment with slit light, and defects in a series of images included in an image group (image set) can be detected using the moving image.

画像群(画像セット)に含まれる一連の画像のそれぞれは、深さ方向(Z方向)に延びる画像である。そのため、Z方向に直交するX方向及びY方向における一連の画像の配置や配列を一連の画像自体から認識するには、前述したスリットランプ顕微鏡システム1と同様の画像処理(画像解析)を利用する必要がある。 Each of the series of images included in the image group (image set) is an image that extends in the depth direction (Z direction). Therefore, in order to recognize the arrangement and alignment of the series of images in the X and Y directions perpendicular to the Z direction from the series of images themselves, it is necessary to use image processing (image analysis) similar to that of the slit lamp microscope system 1 described above.

本例は、一連の画像に画像解析を適用することなく、スキャンと並行して別途に取得した動画像を利用して一連の画像の品質評価を実現するものである。なお、本例の評価項目は、前述したスリットランプ顕微鏡システム1と同様に、一連の画像の配列順序、画像抜け、及び位置ずれのいずれかであってよい。また、本例の評価処理と、前述したスリットランプ顕微鏡システム1について説明した任意の評価処理とを組み合わせることも可能である。 In this example, the quality of a series of images is evaluated using a video image acquired separately in parallel with the scan, without applying image analysis to the series of images. Note that the evaluation items in this example may be any of the arrangement order of the series of images, missing images, and positional deviation, as in the slit lamp microscope system 1 described above. It is also possible to combine the evaluation process of this example with any of the evaluation processes described for the slit lamp microscope system 1 described above.

動画撮影部40の他の応用について説明する。本例は、例えば第1回目のスキャンで収集された画像群の品質が良好ではないと評価された後に2回以上のスキャンを行う場合において、この2回以上の追加的スキャンの開始タイミングを調整することにより、スキャン間における被検眼Eの位置ずれを防止することを目的とする。 Another application of the video capture unit 40 will now be described. In this example, when two or more scans are performed after the quality of the image group collected in the first scan is evaluated as not good, the purpose is to prevent the position of the subject's eye E from shifting between scans by adjusting the start timing of these two or more additional scans.

本例においても、動画撮影部40は、被検眼Eの前眼部を固定位置から撮影する。制御部7は、2回以上の追加的スキャンのうちの第1スキャンの開始に対応して動画撮影部40により取得された基準画像と略同じ画像が動画撮影部40により取得されたことに対応してスキャン部に第2スキャンを開始させるように構成される。 In this example, the video capture unit 40 also captures an image of the anterior segment of the subject's eye E from a fixed position. The control unit 7 is configured to cause the scanning unit to start a second scan in response to the video capture unit 40 acquiring an image that is substantially the same as the reference image acquired by the video capture unit 40 in response to the start of a first scan of two or more additional scans.

より具体的に説明する。画像セット作成のために前眼部に適用される2以上のスキャンのいずれかを第1スキャンと呼ぶ。本例では、2以上のスキャンのうち最初に実行されるスキャンが第1スキャンとされる。 To be more specific, any of the two or more scans applied to the anterior segment to create an image set is called the first scan. In this example, the first scan of the two or more scans is the first scan.

まず、制御部7は、第1スキャンの開始タイミングにおいて動画撮影部40により取得された画像(基準画像)を記憶する。基準画像は、例えば、第1スキャンの開始前に撮影が開始された動画像のフレーム群のうち、第1スキャンの開始時に最も近い時間に取得されたフレームであってよい。或いは、動画撮影部40は、制御部7の制御の下に、第1スキャンの開始時(直前、同時、又は直後)に前眼部を静止画撮影することで、基準画像を取得してもよい。 First, the control unit 7 stores an image (reference image) acquired by the video capture unit 40 at the start timing of the first scan. The reference image may be, for example, a frame acquired closest to the start of the first scan among a group of video frames whose capture began before the start of the first scan. Alternatively, the video capture unit 40 may acquire the reference image by capturing a still image of the anterior eye segment at the start of the first scan (immediately before, simultaneously with, or immediately after) under the control of the control unit 7.

第1スキャンよりも後に実行される任意のスキャン(第2スキャン)は、動画撮影部40による前眼部動画撮影が行われているときに開始される。制御部7(又はデータ処理部8)は、動画撮影部40により逐次に取得されるフレームを基準画像と比較する。この比較は、例えば、ランドマークを特定するセグメンテーション、画像マッチング、画像相関など、任意の画像処理を含んでよい。 Any scan (second scan) performed after the first scan is started while the video capture unit 40 is capturing video of the anterior segment. The control unit 7 (or the data processing unit 8) compares the frames sequentially acquired by the video capture unit 40 with a reference image. This comparison may include any image processing, such as segmentation to identify landmarks, image matching, image correlation, etc.

基準画像と略同じフレームが得られたと判定されると、制御部7は、第2スキャンを開始するように、照明系2、撮影系3及び移動機構6を制御する。 When it is determined that a frame that is substantially the same as the reference image has been obtained, the control unit 7 controls the illumination system 2, the imaging system 3, and the movement mechanism 6 to start a second scan.

本例のスリットランプ顕微鏡は、前眼部に対するスキャン適用回数が、画像セット作成のためのスキャン反復回数に達するまで、上記した一連の処理を繰り返し実行する。これにより、スキャン間における被検眼Eの位置ずれを低減することができ、眼球運動による画像セットの品質低下を防止することが可能となる。また、画像選択の効率化や容易化を図ることが可能となる。 The slit lamp microscope of this example repeatedly executes the above-mentioned series of processes until the number of scans applied to the anterior segment reaches the number of scan repetitions required to create an image set. This reduces the positional shift of the subject's eye E between scans, and prevents degradation of the image set quality due to eye movement. It also makes it possible to make image selection more efficient and easier.

<動作>
例示的な態様に係るスリットランプ顕微鏡の動作について幾つかの例を説明する。
<Operation>
Several examples of the operation of a slit lamp microscope according to exemplary embodiments will now be described.

図示は省略するが、撮影の準備として、スリットランプ顕微鏡システム1が設置されているテーブル、被検者(患者)が座るイス、スリットランプ顕微鏡システム1の顎受け台の調整が行われる(いずれも図示を省略する)。例えば、テーブル、イス、顎受け台の高さ調整が行われる。顎受け台には、被検者の顔を安定配置させるための顎受け部及び額当てが設けられている。 Although not shown in the figures, in preparation for imaging, the table on which the slit lamp microscope system 1 is placed, the chair on which the subject (patient) sits, and the chin rest of the slit lamp microscope system 1 are adjusted (all not shown in the figures). For example, the heights of the table, chair, and chin rest are adjusted. The chin rest is provided with a chin rest and a forehead rest to stably position the subject's face.

準備が完了したら、被検者は、イスに腰掛け、顎受けに顎を載せ、額当てに額を当接させる。これらの動作の前又は後に、ユーザーは、被検眼の撮影を開始するための指示操作を行う。この操作は、例えば、図示しない撮影開始トリガーボタンの押下、指示音声の入力などであってよい。或いは、制御部7が準備フェーズの完了を検知して撮影フェーズに自動で移行してもよい。また、図示しない固視標を被検者(被検眼E又はその僚眼)に提示してもよい。 Once preparation is complete, the subject sits on a chair, rests his or her chin on the chin rest, and places his or her forehead on the forehead rest. Before or after these actions, the user performs an instruction operation to start photographing the subject's eye. This operation may be, for example, pressing an imaging start trigger button (not shown) or inputting an instruction voice. Alternatively, the control unit 7 may detect the completion of the preparation phase and automatically transition to the photographing phase. In addition, a fixation target (not shown) may be presented to the subject (subject's eye E or its fellow eye).

<第1の動作例>
以上の準備の後に実行される第1の動作例について図9を参照しつつ説明する。
<First Operation Example>
A first operation example that is executed after the above preparation will be described with reference to FIG.

(S1:患者IDを受け付け)
まず、スリットランプ顕微鏡システム1は、受付部11によって、被検者の識別子(患者ID)を受け付ける。
(S1: Accept patient ID)
First, the slit lamp microscope system 1 receives an identifier (patient ID) of a subject via the reception unit 11 .

(S2:関心位置情報を取得)
関心位置情報取得部86は、ステップS1で受け付けられた患者IDに関連付けられた関心位置情報を、記憶部10に記憶されている関連情報100から取得する。
(S2: Obtaining location of interest information)
The position of interest information acquiring unit 86 acquires the position of interest information associated with the patient ID accepted in step S1 from the associated information 100 stored in the storage unit 10.

(S3:アライメント)
スリットランプ顕微鏡システム1は、被検眼Eに対する照明系2及び撮影系3のアライメントを行う。被検眼Eの角膜頂点や瞳孔中心に光学系光軸を合わせるための一般的なアライメントと異なり、ステップS3のアライメントは、ステップS4で行われるスキャンの開始位置に照明系2及び撮影系3を配置させるために実行される。ステップS3のアライメントの態様は任意であってよく、前述した例のいずれかであってよい。アライメントの開始前、実行中、及び/又は終了後に、撮像素子5の調整、フォーカス調整などの動作を実行してもよい。
(S3: Alignment)
The slit lamp microscope system 1 aligns the illumination system 2 and the imaging system 3 with respect to the subject's eye E. Unlike general alignment for aligning the optical axis of the optical system with the corneal apex or pupil center of the subject's eye E, the alignment in step S3 is performed to position the illumination system 2 and the imaging system 3 at the start position of the scan performed in step S4. The alignment in step S3 may be performed in any manner, and may be any of the examples described above. Before the start of, during, and/or after the alignment, operations such as adjustment of the image sensor 5 and focus adjustment may be performed.

(S4:前眼部の画像を取得)
ステップS3のアライメントの完了後、スリットランプ顕微鏡システム1は、被検眼Eの前眼部を撮影して画像を取得する。例えば、スリットランプ顕微鏡システム1は、照明系2によるスリット光の照射と、撮影系3による動画撮影と、移動機構6による照明系2及び撮影系3の移動とを組み合わせて実行することにより、被検眼Eの前眼部をスキャンする。このスキャンは、前眼部の3次元領域に適用される。1回のスキャン(スキャン開始位置からスキャン終了位置までのスキャン)により、例えば、図5に示す画像群(複数の前眼部画像)F1~FNが得られる。なお、ステップS2で実行される撮影はこのようなスキャンに限定されず、例えば、1枚の画像を取得するための撮影であってもよい。
(S4: Acquire an image of the anterior segment)
After the alignment in step S3 is completed, the slit lamp microscope system 1 photographs the anterior segment of the subject's eye E to obtain an image. For example, the slit lamp microscope system 1 scans the anterior segment of the subject's eye E by performing a combination of irradiation of slit light by the illumination system 2, video shooting by the imaging system 3, and movement of the illumination system 2 and the imaging system 3 by the moving mechanism 6. This scan is applied to a three-dimensional area of the anterior segment. By performing one scan (scanning from the scan start position to the scan end position), for example, a group of images (multiple anterior segment images) F1 to FN shown in FIG. 5 can be obtained. Note that the imaging performed in step S2 is not limited to such a scan, and may be imaging for obtaining one image, for example.

データ処理部8は、取得された前眼部画像に所定の処理を施してもよい。例えば、ノイズ除去、コントラスト調整、輝度調整、色補正など、任意の信号処理や任意の画像処理を適用することが可能である。 The data processing unit 8 may perform a predetermined process on the acquired anterior eye image. For example, any signal processing or image processing such as noise removal, contrast adjustment, brightness adjustment, and color correction can be applied.

(S5A:画像の部分領域を特定)
特定部87は、ステップS2で取得された関心位置情報に基づいて、ステップS4で取得された画像の部分領域を特定する。
(S5A: Identify a partial area of an image)
The identification unit 87 identifies a partial region of the image acquired in step S4, based on the position of interest information acquired in step S2.

(S6A:部分領域を解析)
解析部88は、ステップS5Aで特定された部分領域を解析して部分解析データを生成する。
(S6A: Analyze partial regions)
The analysis unit 88 analyzes the partial region identified in step S5A and generates partial analysis data.

(S7:部分解析データを表示)
制御部7は、ステップS6Aで生成された部分解析データを表示デバイスに表示させる。制御部7は、ステップS4で取得された前眼部画像、ステップS5Aで特定された部分領域などを、部分解析データとともに表示させてもよい。
(S7: Display partial analysis data)
The control unit 7 causes the display device to display the partial analysis data generated in step S6 A. The control unit 7 may also cause the display device to display the anterior eye image acquired in step S4, the partial region specified in step S5 A, and the like together with the partial analysis data.

(S8:部分解析データを保存)
制御部7は、ステップS6Aで生成された部分解析データを所定の記憶装置に保存する(エンド)。制御部7は、ステップS4で取得された前眼部画像、ステップS5Aで特定された部分領域などを、部分解析データとともに所定の記憶装置に保存してもよい。これらの情報は、例えば、ステップS1で受け付けられた患者IDに関連付けられて保存される。
(S8: Save partial analysis data)
The control unit 7 stores the partial analysis data generated in step S6A in a predetermined storage device (END). The control unit 7 may store the anterior eye image acquired in step S4, the partial area specified in step S5A, and the like in a predetermined storage device together with the partial analysis data. These pieces of information are stored, for example, in association with the patient ID accepted in step S1.

<第2の動作例>
第2の動作例について図10を参照しつつ説明する。本動作例は、第1の動作例のステップS5A及びS6BをそれぞれステップS5B及びS6Bに置換したものである。本動作例のステップS1~S4、S7及びS8は、第1の動作例と同じ要領で実行される。以下、ステップS5B及びS6Bについて説明する。
<Second Operation Example>
The second operation example will be described with reference to Fig. 10. In this operation example, steps S5A and S6B in the first operation example are replaced with steps S5B and S6B, respectively. Steps S1 to S4, S7, and S8 in this operation example are executed in the same manner as in the first operation example. Steps S5B and S6B will be described below.

(S5B:画像を解析)
解析部88は、ステップS4で取得された画像を解析して解析データを生成する。本動作例では、例えば、ステップS4で取得された画像の全体が解析される。
(S5B: Analyze the image)
The analysis unit 88 analyzes the image acquired in step S4 to generate analysis data. In this operation example, for example, the entire image acquired in step S4 is analyzed.

(S6B:解析データの部分を特定)
特定部87は、ステップS2で取得された関心位置情報に基づいて、ステップS5Bで生成された解析データから部分解析データを特定する。
(S6B: Identify the part of the analysis data)
The identifying unit 87 identifies partial analysis data from the analysis data generated in step S5B based on the position of interest information acquired in step S2.

<第3の動作例>
第3の動作例について図11A~図11Cを参照しつつ説明する。本動作例は、スリットランプ顕微鏡システム1により取得された前眼部画像を読影する場合の例を示している。なお、読影以外の医療行為においても本動作例と同様の処理を応用可能であることは、当業者であれば理解することができるであろう。また、本動作例では、図8の構成が採用されている。
<Third Operation Example>
A third operation example will be described with reference to Figures 11A to 11C. This operation example shows an example of reading an anterior eye image acquired by the slit lamp microscope system 1. Those skilled in the art will understand that the same processing as this operation example can be applied to medical procedures other than image reading. In this operation example, the configuration of Figure 8 is adopted.

(S11:アライメント)
まず、第1の動作例のステップS3と同じ要領でアライメントが実行される。これにより、照明系2(照明系20)及び撮影系3(左撮影系30L及び右撮影系30Rの一方。双方でもよい。)がスキャン開始位置これに対応する位置に配置され、動画撮影部40が例えば被検眼Eの正面位置に配置される。
(S11: Alignment)
First, alignment is performed in the same manner as in step S3 of the first operation example. As a result, the illumination system 2 (illumination system 20) and the imaging system 3 (either the left imaging system 30L or the right imaging system 30R, or both) are disposed at a position corresponding to the scan start position, and the video imaging unit 40 is disposed, for example, in front of the subject's eye E.

(S12:動画撮影を開始)
アライメントの完了後、動画撮影部40による前眼部の動画撮影が開始される。この動画撮影の撮影レートは、後述の前眼部スキャンにおける撮影系3の撮影レートと等しくてよい。
(S12: Start video recording)
After the alignment is completed, video capture of the anterior segment is started by the video capture unit 40. The capture rate of this video capture may be equal to the capture rate of the imaging system 3 in the anterior segment scan described below.

前眼部スキャンのために照明系2及び撮影系3は移動されるが、動画撮影部40は固定位置から前眼部を動画撮影する。また、動画撮影と並行して前眼部スキャンが行われると、前眼部スキャンで収集された画像群と、動画撮影部40で収集されたフレーム群との間に、前述の対応関係が割り当てられる。 The illumination system 2 and the imaging system 3 are moved to scan the anterior segment, but the video capture unit 40 captures video of the anterior segment from a fixed position. When an anterior segment scan is performed in parallel with video capture, the aforementioned correspondence is assigned between the image group collected in the anterior segment scan and the frame group collected by the video capture unit 40.

動画撮影の開始タイミングは任意であってよく、例えばアライメントの実行前又は実行中であってもよい。 The timing for starting video recording can be arbitrary, for example, before or during alignment.

(S13:前眼部スキャン)
スリットランプ顕微鏡システム1は、照明系2によるスリット光の照射と、撮影系3による動画撮影と、移動機構6による照明系2及び撮影系3の移動とを組み合わせることで、被検眼Eの前眼部をスキャンする。
(S13: Anterior eye scan)
The slit lamp microscope system 1 scans the anterior segment of the subject's eye E by combining the irradiation of slit light by the illumination system 2, video capture by the imaging system 3, and movement of the illumination system 2 and the imaging system 3 by the movement mechanism 6.

本例では、1回のスキャン(スキャン開始位置からスキャン終了位置までのスキャン)で256枚の画像が取得される。第1回目のスキャン(第1回目のステップS13で実行されたスキャン。以下同様。)で得られた256枚の画像(画像群)をH1(1)~H1(256)で示す。256枚の画像H1(1)~H1(256)は、スキャン範囲(スキャン開始位置及びスキャン終了位置を両端とするX方向の範囲)において順序付けられた256個の位置に割り当てられている。 In this example, 256 images are acquired in one scan (scan from the scan start position to the scan end position). The 256 images (image group) acquired in the first scan (the first scan performed in step S13; the same applies below) are indicated as H1(1) to H1(256). The 256 images H1(1) to H1(256) are assigned to 256 ordered positions in the scan range (the range in the X direction with the scan start position and scan end position at both ends).

(S14:良質な画像を選択)
選択部821は、ステップS13で取得された256枚の画像H1(1)~H1(256)のうちから、所定の画像選択条件を満足する画像を選択する。
(S14: Select a good quality image)
The selection unit 821 selects images that satisfy a predetermined image selection condition from the 256 images H1(1) to H1(256) acquired in step S13.

本例では、図12Aに示すように、第71枚目~第170枚目の100枚の画像H1(71)~H1(170)が画像選択条件を満足せず、第1枚目~第70枚目及び第171枚目~第256枚目の156枚の画像H1(1)~H1(70)及びH1(171)~H1(256)が画像選択条件を満足したとする。この場合、選択部821は、256枚の画像H1(1)~H1(256)のうちから、第1枚目~第70枚目及び第171枚目~第256枚目の156枚の画像H1(1)~H1(70)及びH1(171)~H1(256)を選択する。 In this example, as shown in FIG. 12A, the 71st to 170th 100 images H1(71) to H1(170) do not satisfy the image selection condition, and the 1st to 70th and 171st to 256th 156 images H1(1) to H1(70) and H1(171) to H1(256) do satisfy the image selection condition. In this case, the selection unit 821 selects the 1st to 70th and 171st to 256th 156 images H1(1) to H1(70) and H1(171) to H1(256) from among the 256 images H1(1) to H1(256).

(S15:暫定的画像セットを作成)
選択部821は、現時点までに得られた(1以上の)画像群に基づく暫定的画像セットを作成する。本例の現段階では、156枚の画像H1(1)~H1(70)及びH1(171)~H1(256)を含む暫定的画像セットが作成される。
(S15: Create a provisional image set)
The selector 821 creates a provisional image set based on the image(s) acquired up to the current point in time. At this point in the example, a provisional image set is created that includes 156 images H1(1)-H1(70) and H1(171)-H1(256).

(S16:選択画像枚数=所定数?)
選択部821は、直前のステップS15で作成された暫定的画像セットに含まれる画像の枚数(選択された画像の枚数)を所定の枚数と比較する。上記のように、本例では、所定の枚数(画像セットに含まれる画像の枚数)は256枚に設定されている。
(S16: Number of selected images = predetermined number?)
The selection unit 821 compares the number of images included in the temporary image set created in the immediately preceding step S15 (the number of selected images) with a predetermined number. As described above, in this example, the predetermined number (the number of images included in the image set) is set to 256.

暫定的画像セットに含まれる画像の枚数が256枚に達した場合(S16:Yes)、動作はステップS18に移行する。また、暫定的画像セットに含まれる画像の枚数が256枚に達しない場合(S16:No)、動作はステップS17に移行する。 If the number of images included in the provisional image set reaches 256 (S16: Yes), the operation proceeds to step S18. If the number of images included in the provisional image set does not reach 256 (S16: No), the operation proceeds to step S17.

(S17:スキャン回数=所定数?)
選択部821は、現段階までに行われたスキャンの回数(スキャンと画像選択との交互反復の回数)を所定の回数と比較する。上記のように、本例では、所定の回数は5回に設定されている。
(S17: Number of scans = predetermined number?)
The selection unit 821 compares the number of scans performed up to the current stage (the number of times that scanning and image selection have been alternately repeated) with a predetermined number of times. As described above, in this example, the predetermined number of times is set to five times.

現段階までに行われたスキャン回数が5回に達した場合(S17:Yes)、動作はステップS18に移行する。また、現段階までに行われたスキャン回数が5回に達しない場合(S17:No)、動作はステップS13に戻る。 If the number of scans performed up to the current stage reaches five (S17: Yes), the operation proceeds to step S18. If the number of scans performed up to the current stage does not reach five (S17: No), the operation returns to step S13.

ステップS16又はS17で「Yes」と判定されるまで、ステップS13~ステップ37が繰り返し実行される。ステップS16で「Yes」と判定されることは、画像セットの作成に必要な枚数(256枚)の画像が準備されたことに相当する。また、ステップS17で「Yes」と判定されることは、スキャン及び画像選択が上限回数だけ反復されたことに相当する。 Steps S13 to S37 are repeated until step S16 or S17 returns "Yes." A "Yes" determination in step S16 corresponds to the number of images (256) required to create an image set being prepared. A "Yes" determination in step S17 corresponds to the scanning and image selection being repeated the maximum number of times.

(S18:画像セットを作成)
ステップS16又はS17で「Yes」と判定されると、画像セット作成部82は、直前のステップS15で作成された暫定的画像セットに基づいて画像セットを作成する。
(S18: Create image set)
If the determination in step S16 or S17 is "Yes", the image set creation unit 82 creates an image set based on the provisional image set created in the immediately preceding step S15.

ここで、ステップS13~S18について具体例を説明する。前述のように、図12Aの例では、第1回目のスキャン(ステップS13)及び第1回目の画像選択(ステップS14)に基づき、156枚の画像H1(1)~H1(70)及びH1(171)~H1(256)を含む暫定的画像セットが作成された(ステップS15)。 Here, a specific example of steps S13 to S18 will be described. As described above, in the example of FIG. 12A, a provisional image set including 156 images H1(1) to H1(70) and H1(171) to H1(256) was created (step S15) based on the first scan (step S13) and the first image selection (step S14).

この段階では、暫定的画像セットに含まれる画像の枚数が256枚に達していないので(S16:No)、動作はステップS17に移行する。この段階では、スキャンは1回しか行われていないので(S17:No)、動作はステップS13に戻る。 At this stage, the number of images included in the provisional image set has not reached 256 (S16: No), so the operation proceeds to step S17. At this stage, only one scan has been performed (S17: No), so the operation returns to step S13.

動作がステップS13に戻ると、第2回目の前眼部スキャンが行われる。第2回目のスキャンで得られた256枚の画像をH2(1)~H2(256)で示す。第1回目のスキャンで得られた画像群と同様に、256枚の画像H2(1)~H2(256)は、スキャン範囲において順序付けられた256個の位置に割り当てられている。更に、256個の位置を介して、第1回目のスキャンで得られた画像H1(n)と第2回目のスキャンで得られた画像H2(n)とが対応付けられている(n=1、2、・・・、256)。これ以降のスキャンで得られる画像群についても同様である。 When the operation returns to step S13, a second anterior eye scan is performed. The 256 images obtained in the second scan are denoted by H2(1) to H2(256). As with the set of images obtained in the first scan, the 256 images H2(1) to H2(256) are assigned to 256 ordered positions in the scan range. Furthermore, the image H1(n) obtained in the first scan and the image H2(n) obtained in the second scan are associated with each other via the 256 positions (n = 1, 2, ..., 256). The same applies to the sets of images obtained in subsequent scans.

ステップS14において、選択部821は、ステップS13で取得された256枚の画像H2(1)~H2(256)のうちから、所定の画像選択条件を満足する画像を選択する。本例では、図12Bに示すように、第1枚目~第100枚目の100枚の画像H2(1)~H2(100)が画像選択条件を満足せず、第101枚目~第256枚目の156枚の画像H2(101)~H2(256)が画像選択条件を満足したとする。この場合、選択部821は、256枚の画像H2(1)~H2(256)のうちから、第101枚目~第256枚目の156枚の画像H2(101)~H2(256)を選択する。 In step S14, the selection unit 821 selects images that satisfy a predetermined image selection condition from among the 256 images H2(1) to H2(256) acquired in step S13. In this example, as shown in FIG. 12B, it is assumed that the 100 images H2(1) to H2(100) from the 1st to 100th do not satisfy the image selection condition, and the 156 images H2(101) to H2(256) from the 101st to 256th do satisfy the image selection condition. In this case, the selection unit 821 selects the 156 images H2(101) to H2(256) from the 256 images H2(1) to H2(256).

ここで、スキャン範囲の或る位置に対応する画像が2つ以上選択された場合、選択部821は、それら画像のうちから1つを選択することができる。図12A及び図12Bに示す例においては、例えば、第256番目の位置に対応する画像として、画像H1(256)と画像H2(256)とが選択されている。 Here, if two or more images corresponding to a certain position in the scan range are selected, the selection unit 821 can select one of those images. In the example shown in Figures 12A and 12B, for example, image H1 (256) and image H2 (256) are selected as images corresponding to the 256th position.

選択部821は、画像H1(256)及び画像H2(256)の一方を選択する処理を実行するように構成されてよい。例えば、選択部821は、先に取得された画像H1(256)を選択するように、又は、後に取得された画像H2(256)を選択するように構成されてよい。なお、本例では、選択部821は、先に取得された画像を選択するように構成されているものとする。 The selection unit 821 may be configured to execute a process of selecting one of the image H1 (256) and the image H2 (256). For example, the selection unit 821 may be configured to select the image H1 (256) acquired first, or to select the image H2 (256) acquired later. In this example, it is assumed that the selection unit 821 is configured to select the image acquired first.

他の例として、選択部821は、画像H1(256)と画像H2(256)との比較によって一方を選択するように構成されてよい。例えば、画像H1(256)の画質評価値を算出し、画像H2(256)の画質評価値を算出し、これら画質評価値を比較して画像H1(256)及び画像H2(256)の一方を選択するように構成されてよい。典型的には、画質評価値が最も高い画像が選択される。 As another example, the selection unit 821 may be configured to select one of the images H1 (256) and H2 (256) by comparing them. For example, the selection unit 821 may be configured to calculate an image quality evaluation value for the image H1 (256), calculate an image quality evaluation value for the image H2 (256), compare these image quality evaluation values, and select one of the images H1 (256) and H2 (256). Typically, the image with the highest image quality evaluation value is selected.

このような処理により、スキャン範囲における256個の位置のそれぞれに対し、最大1枚の画像が割り当てられる。つまり、暫定的画像セットに含まれる画像の枚数は、最大で256枚である。 This process assigns up to one image to each of the 256 positions in the scan range. This means that the provisional image set contains a maximum of 256 images.

選択部821は、現時点までに得られた2つの画像群(画像群H1(1)~H1(256)及び画像群H2(1)~H2(256))に基づく暫定的画像セットを作成する。本例の現段階では、第1回目のスキャンに基づく156枚の画像H1(1)~H1(70)及びH1(171)~H1(256)と、第2回目のスキャンに基づく70枚の画像H2(101)~H2(170)とを含む暫定的画像セットが作成される。 The selection unit 821 creates a provisional image set based on the two image groups obtained up to this point (image group H1(1) to H1(256) and image group H2(1) to H2(256)). At this stage in this example, a provisional image set is created that includes 156 images H1(1) to H1(70) and H1(171) to H1(256) based on the first scan, and 70 images H2(101) to H2(170) based on the second scan.

つまり、この段階で得られる暫定的画像セットは、スキャン範囲における256個の位置のうち第1番目~第70番目及び第101番目~第256番目の位置(226個の位置)に対応する226枚の画像H1(1)~H1(70)、H2(101)~H2(170)、及びH1(171)~H1(256)を含んでいる。 In other words, the provisional image set obtained at this stage includes 226 images H1(1) to H1(70), H2(101) to H2(170), and H1(171) to H1(256), which correspond to the 1st to 70th and 101st to 256th positions (226 positions) of the 256 positions in the scan range.

この段階では、暫定的画像セットに含まれる画像の枚数が256枚に達していないので(S16:No)、動作はステップS17に移行する。この段階では、スキャンは2回しか行われていないので(S17:No)、動作は再度ステップS13に戻る。 At this stage, the number of images included in the provisional image set has not reached 256 (S16: No), so the operation proceeds to step S17. At this stage, only two scans have been performed (S17: No), so the operation returns to step S13 again.

動作がステップS13に戻ると、第3回目の前眼部スキャンが行われる。第3回目のスキャンで得られた256枚の画像をH3(1)~H3(256)で示す。 When operation returns to step S13, a third anterior segment scan is performed. The 256 images obtained in the third scan are shown as H3(1) to H3(256).

ステップS14において、選択部821は、ステップS13で取得された256枚の画像H3(1)~H3(256)のうちから、所定の画像選択条件を満足する画像を選択する。本例では、図12Cに示すように、第227枚目~第256枚目の30枚の画像H3(227)~H3(256)が画像選択条件を満足せず、第1枚目~第226枚目の226枚の画像H3(1)~H3(226)が画像選択条件を満足したとする。この場合、選択部821は、256枚の画像H3(1)~H3(256)のうちから、第1枚目~第226枚目の226枚の画像H3(1)~H3(226)を選択する。 In step S14, the selection unit 821 selects images that satisfy a predetermined image selection condition from among the 256 images H3(1) to H3(256) acquired in step S13. In this example, as shown in FIG. 12C, it is assumed that the 227th to 256th 30 images H3(227) to H3(256) do not satisfy the image selection condition, and the 1st to 226th 226 images H3(1) to H3(226) do satisfy the image selection condition. In this case, the selection unit 821 selects the 1st to 226th 226 images H3(1) to H3(226) from among the 256 images H3(1) to H3(256).

更に、選択部821は、スキャン範囲における256個の位置のうち既に画像が割り当てられている第1番目~第70番目及び第101番目~第256番目の位置を除く、第71番目~第100番目に対応する30枚の画像H3(71)~H3(100)を、226枚の画像H3(1)~H3(226)のうちから選択する。 Furthermore, the selection unit 821 selects 30 images H3(71) to H3(100) from among the 226 images H3(1) to H3(226), corresponding to the 71st to 100th positions, excluding the 1st to 70th and 101st to 256th positions of the 256 positions in the scan range to which images have already been assigned.

選択部821は、現時点までに得られた3つの画像群(画像群H1(1)~H1(256)、画像群H2(1)~H2(256)、及び、画像群H3(1)~H3(256))に基づく暫定的画像セットを作成する。本例の現段階では、第1回目のスキャンに基づく156枚の画像H1(1)~H1(70)及びH1(171)~H1(256)と、第2回目のスキャンに基づく70枚の画像H2(101)~H2(170)と、第3回目のスキャンに基づく30枚の画像H3(71)~H3(100)とを含む暫定的画像セットが作成される。 The selection unit 821 creates a provisional image set based on the three image groups obtained up to this point (image group H1(1) to H1(256), image group H2(1) to H2(256), and image group H3(1) to H3(256)). At this stage in this example, a provisional image set is created that includes 156 images H1(1) to H1(70) and H1(171) to H1(256) based on the first scan, 70 images H2(101) to H2(170) based on the second scan, and 30 images H3(71) to H3(100) based on the third scan.

つまり、この段階で得られる暫定的画像セットは、スキャン範囲における256個の位置の全てに対応する256枚の画像H1(1)~H1(70)、H3(71)~H3(100)、H2(101)~H2(170)、及びH1(171)~H1(256)を含んでいる。したがって、ステップS16において「Yes」と判断されて、動作はステップS18に移行する。 In other words, the provisional image set obtained at this stage includes 256 images H1(1) to H1(70), H3(71) to H3(100), H2(101) to H2(170), and H1(171) to H1(256) corresponding to all 256 positions in the scan range. Therefore, the answer in step S16 is "Yes," and the operation proceeds to step S18.

ステップS18では、画像セット作成部82が、直前のステップ35で作成された暫定的画像セットに含まれる256枚の画像H1(1)~H1(70)、H3(71)~H3(100)、H2(101)~H2(170)、及びH1(171)~H1(256)に基づいて画像セットを作成する。 In step S18, the image set creation unit 82 creates an image set based on the 256 images H1(1) to H1(70), H3(71) to H3(100), H2(101) to H2(170), and H1(171) to H1(256) included in the provisional image set created in the immediately preceding step 35.

図11Aに示す動作は、スキャンと画像選択との交互反復を用いて画像セットを作成する処理の例を提供する。これに引き続き図11Bに示す動作が実行される。 The operations shown in FIG. 11A provide an example process for creating an image set using alternating iterations of scanning and image selection, followed by the operations shown in FIG. 11B.

(S19:画像セットの品質を評価)
画像セット評価部83は、ステップS18で作成された画像セットの品質を評価する。
(S19: Evaluate the quality of the image set)
The image set evaluation unit 83 evaluates the quality of the image set created in step S18.

或いは、本態様では、前述した要領で、動画撮影部40により取得された動画像を利用して画像セットの品質を評価してもよい。例えば、図12A~図12Cに示す例に基づく画像セットは、256枚の画像H1(1)~H1(70)、H3(71)~H3(100)、H2(101)~H2(170)、及びH1(171)~H1(256)からなる一連の画像を含む。これらの画像を収集するために3回のスキャンが行われ、各スキャンと並行して動画撮影部40による動画撮影が行われた。 Alternatively, in this embodiment, the quality of the image set may be evaluated using the video captured by the video capture unit 40 in the manner described above. For example, the image set based on the example shown in Figures 12A to 12C includes a series of 256 images H1(1) to H1(70), H3(71) to H3(100), H2(101) to H2(170), and H1(171) to H1(256). Three scans were performed to collect these images, and video capture was performed by the video capture unit 40 in parallel with each scan.

第1回目のスキャンと並行した動画撮影で得られたフレーム群のうち、画像H1(n)に対応付けられたフレームをJ1(n)で示す(n=1、2、・・・、256)。また、第2回目のスキャンと並行した動画撮影で得られたフレーム群のうち、画像H2(n)に対応付けられたフレームをJ2(n)で示す(n=1、2、・・・、256)。また、第3回目のスキャンと並行した動画撮影で得られたフレーム群のうち、画像H3(n)に対応付けられたフレームをJ3(n)で示す(n=1、2、・・・、256)。 Of the frames obtained by video capture in parallel with the first scan, the frame associated with image H1(n) is denoted by J1(n) (n = 1, 2, ..., 256). Of the frames obtained by video capture in parallel with the second scan, the frame associated with image H2(n) is denoted by J2(n) (n = 1, 2, ..., 256). Of the frames obtained by video capture in parallel with the third scan, the frame associated with image H3(n) is denoted by J3(n) (n = 1, 2, ..., 256).

よって、本例の画像セットに含まれる256枚の画像H1(1)~H1(70)、H3(71)~H3(100)、H2(101)~H2(170)、及びH1(171)~H1(256)には、それぞれ、フレームJ1(1)~J1(70)、J3(71)~J3(100)、J2(101)~J2(170)、及びJ1(171)~J1(256)が対応付けられている。 Thus, the 256 images included in the image set in this example, H1(1) to H1(70), H3(71) to H3(100), H2(101) to H2(170), and H1(171) to H1(256), correspond to frames J1(1) to J1(70), J3(71) to J3(100), J2(101) to J2(170), and J1(171) to J1(256), respectively.

画像セット評価部83は、前述したフレーム群D1~DNに対する処理と同様の処理を、本例の画像セットに含まれる256枚の画像に対応付けられた256枚のフレームに適用することで、この画像セットの評価を行うことができる。 The image set evaluation unit 83 can evaluate this image set by applying the same processing as that performed on the frame groups D1 to DN described above to the 256 frames corresponding to the 256 images included in the image set in this example.

(S20:品質良好か?)
ステップS19において画像セットの品質は良好であると判定された場合(S20:Yes)、動作はステップS23に移行する。一方、ステップS19において画像セットの品質は良好でないと判定された場合(S20:No)、動作はステップS21に移行する。
(S20: Is the quality good?)
If it is determined in step S19 that the quality of the image set is good (S20: Yes), the operation proceeds to step S23. On the other hand, if it is determined in step S19 that the quality of the image set is not good (S20: No), the operation proceeds to step S21.

(S21:再撮影を促す)
ステップS19において画像セットの品質は良好でないと判定された場合(S20:No)、制御部7は、ユーザーに再撮影を促すための情報を表示及び/又は音声出力させる。
(S21: Prompt to retake the photo)
If it is determined in step S19 that the quality of the image set is not good (S20: No), the control unit 7 displays and/or outputs sound to prompt the user to take a new photograph.

(S22:再撮影するか?)
ユーザーは、ステップS21で表示及び/又は音声出力された情報への応答として、再撮影を開始するための指示操作、又は、再撮影を行わないための指示操作を行う。
(S22: Should we take the photo again?)
In response to the information displayed and/or output as sound in step S21, the user performs an instruction operation to start re-shooting or an instruction operation to not perform re-shooting.

再撮影を開始するための指示操作をユーザーが行った場合(S22:Yes)、動作はステップS11に戻る。この場合、スリットランプ顕微鏡システム1は、ここまでの一連の処理を再度実行する。なお、再撮影は、例えば、所定の回数を上限として繰り返される。 If the user performs an instruction operation to start re-imaging (S22: Yes), the operation returns to step S11. In this case, the slit lamp microscope system 1 executes the series of processes up to this point again. Note that re-imaging is repeated, for example, up to a predetermined number of times.

一方、再撮影を行わないための指示操作をユーザーが行った場合(S22:No)、動作はステップS23に移行する。 On the other hand, if the user performs an instruction not to retake the image (S22: No), the operation proceeds to step S23.

(S23:画像セットを送信)
ステップS19において画像セットの品質は良好であると判定された場合(S20:Yes)、又は、ステップS22において再撮影を行わないための指示操作をユーザーが行った場合(S22:No)、制御部7は、読影端末及び/又は読影装置に画像セットを送信するように通信部9を制御する。
(S23: Transmit image set)
If the quality of the image set is determined to be good in step S19 (S20: Yes), or if the user performs an instruction operation in step S22 not to re-take the image (S22: No), the control unit 7 controls the communication unit 9 to send the image set to the reading terminal and/or reading device.

本動作例では、ここまでの工程はスリットランプ顕微鏡システム1に含まれるスリットランプ顕微鏡(及び、それに接続されたコンピュータ)よって実行され、これ以降の工程(図11Cに示す工程)は、このスリットランプ顕微鏡(又はコンピュータ)と通信可能な情報処理装置によって実行される。図11Cに示す工程は、医師が読影を行うために使用するコンピュータ(読影端末)を用いて行われる。読影機能を有するコンピュータ(読影装置)が用いられる場合においても同様の処理を実行可能であることは、当業者であれば理解することができるであろう。なお、本動作例を採用可能なシステム構成については、その例を後述する。 In this operation example, the steps up to this point are executed by the slit lamp microscope (and a computer connected thereto) included in the slit lamp microscope system 1, and the steps thereafter (the steps shown in FIG. 11C) are executed by an information processing device capable of communicating with this slit lamp microscope (or computer). The steps shown in FIG. 11C are performed using a computer (image reading terminal) used by a doctor to perform image reading. Those skilled in the art will understand that similar processing can be executed even when a computer (image reading device) with image reading capabilities is used. An example of a system configuration in which this operation example can be adopted will be described later.

(S24:患者IDを受け付け)
スリットランプ顕微鏡システム1は、受付部11によって、被検者の識別子(患者ID)を受け付ける。
(S24: Patient ID is accepted)
The slit lamp microscope system 1 receives an identifier (patient ID) of a subject via the reception unit 11 .

(S25:関心位置情報を取得)
関心位置情報取得部86は、ステップS24で受け付けられた患者IDに関連付けられた関心位置情報を、記憶部10に記憶されている関連情報100から取得する。
(S25: Obtaining location of interest information)
The position of interest information acquiring unit 86 acquires the position of interest information associated with the patient ID accepted in step S24 from the associated information 100 stored in the storage unit 10.

(S26:読影開始)
読影端末を使用する医師は、ステップS23でスリットランプ顕微鏡(又はコンピュータ)から送信された画像セットに含まれる一連の画像の読影を所望のタイミングで開始する。以下の工程が適用される画像は、例えば、この画像セットに含まれる全ての画像、この画像セットから医師が選択した1つ以上の画像、及び、この画像セットから読影端末が選択した1つ以上の画像のいずれかであってよい。
(S26: Start of interpretation)
A doctor using the image reading terminal starts reading the series of images included in the image set transmitted from the slit lamp microscope (or computer) in step S23 at a desired timing. The images to which the following steps are applied may be, for example, all images included in the image set, one or more images selected from the image set by the doctor, or one or more images selected from the image set by the image reading terminal.

(S27:画像の部分領域を特定)
特定部87は、ステップS25で取得された関心位置情報に基づいて、ステップS23でスリットランプ顕微鏡(又はコンピュータ)から送信された画像セットに含まれる画像の部分領域を特定する。
(S27: Identify a partial area of the image)
The identifying unit 87 identifies a partial region of an image included in the image set transmitted from the slit lamp microscope (or computer) in step S23, based on the position of interest information acquired in step S25.

(S28:部分領域を解析)
解析部88は、ステップS27で特定された部分領域を解析して部分解析データを生成する。
(S28: Analyze partial regions)
The analysis unit 88 analyzes the partial region identified in step S27 and generates partial analysis data.

なお、本動作例のステップS27及びS28は、それぞれ、第1の動作例のステップS5A及びS6Aに相当する工程であるが、これらの代わりに、第2の動作例のステップS5B及びS6Bに相当する工程を実行してもよい。 Note that steps S27 and S28 in this operation example correspond to steps S5A and S6A in the first operation example, respectively, but instead, steps corresponding to steps S5B and S6B in the second operation example may be executed.

(S29:部分解析データを表示)
制御部7は、ステップS28で生成された部分解析データを表示デバイスに表示させる。制御部7は、前眼部画像、その部分領域などを、部分解析データとともに表示させてもよい。
(S29: Display partial analysis data)
The control unit 7 causes the display device to display the partial analysis data generated in step S28. The control unit 7 may cause the display device to display the anterior eye image, a partial region thereof, and the like together with the partial analysis data.

(S30:読影レポートを作成)
医師は、ステップS29で表示された部分解析データや画像を参照しつつ読影を行うことができる。医師は、画像セットに含まれる一連の画像のうちの所望の画像に対してステップS27~S29の処理を適用させることができる。このようにして、医師は、被検眼Eの前眼部画像の読影を行い、その結果を所定のレポートテンプレートに入力する。これにより、被検眼Eに関する読影レポートが作成される。
(S30: Create image interpretation report)
The doctor can perform image interpretation while referring to the partial analysis data and images displayed in step S29. The doctor can apply the processes of steps S27 to S29 to a desired image among a series of images included in the image set. In this way, the doctor interprets the anterior segment image of the subject's eye E and inputs the result into a predetermined report template. In this way, an image interpretation report on the subject's eye E is created.

(S31:画像セット・読影レポート・部分解析データを保存)
画像セット、読影レポート、及び部分解析データは、例えば、スリットランプ顕微鏡システム1が設置されている施設、被検者等が指定した医療機関、被検者等が指定した医師が使用する情報処理装置、被検者が登録したアドレス(電子メールアドレス、住所など)などに提供され、保存される。また、所定のデータベースシステムに画像セット及び読影レポートを送信して保管・管理するようにしてもよい(エンド)。
(S31: Save image set, image interpretation report, and partial analysis data)
The image set, image interpretation report, and partial analysis data are provided to and stored in, for example, a facility where the slit lamp microscope system 1 is installed, a medical institution designated by the subject, etc., an information processing device used by a doctor designated by the subject, etc., an address registered by the subject (email address, mailing address, etc.), etc. In addition, the image set and image interpretation report may be sent to a specified database system for storage and management (end).

本動作例を実行可能なスリットランプ顕微鏡システムが奏する幾つかの効果について説明する。本動作例を実行可能なスリットランプ顕微鏡システムは、スキャンと画像選択との交互反復において、スキャン開始時の前眼部画像を一致させてスキャン間における被検眼のずれを防ぐことができる。そのために、本動作例を実行可能なスリットランプ顕微鏡システムは、被検眼の前眼部を固定位置から撮影する動画撮影部40(撮影部)を含む。制御部7は、第1スキャンの開始に対応して動画撮影部40により取得された基準画像と略同じ画像が動画撮影部40により取得されたことに対応してスキャン部に第2スキャンを開始させるように構成される。 Some effects of a slit lamp microscope system capable of executing this operation example will be described. A slit lamp microscope system capable of executing this operation example can prevent deviation of the subject's eye between scans by matching the anterior segment image at the start of scanning during alternating repetition of scanning and image selection. To this end, a slit lamp microscope system capable of executing this operation example includes a video capture unit 40 (image capture unit) that captures the anterior segment of the subject's eye from a fixed position. The control unit 7 is configured to cause the scanning unit to start a second scan in response to the video capture unit 40 acquiring an image that is substantially the same as the reference image acquired by the video capture unit 40 in response to the start of the first scan.

本動作例を実行可能なスリットランプ顕微鏡システムは、画像セットの品質評価において、動画撮影部40により取得された動画像(フレーム群)を利用することができる。そのために、本動作例を実行可能なスリットランプ顕微鏡システムは、被検眼の前眼部へのスキャンの適用と並行して前眼部を固定位置から動画撮影する動画撮影部40を含む。画像セット評価部83は、動画撮影部40により取得された動画像に基づいて画像セット品質の評価を行うように構成される。 A slit lamp microscope system capable of performing this operation example can use video images (frame group) acquired by the video capture unit 40 in evaluating the quality of the image set. To that end, a slit lamp microscope system capable of performing this operation example includes a video capture unit 40 that captures video of the anterior segment of the subject's eye from a fixed position in parallel with the application of a scan to the anterior segment of the subject's eye. The image set evaluation unit 83 is configured to evaluate the image set quality based on the video images acquired by the video capture unit 40.

このとき、画像セット評価部83は、画像セットに含まれる一連の画像と動画撮影部40により取得された動画像に含まれる一連のフレームとの間の対応関係に基づいて、画像セットの品質の評価を行うように構成されてよい。 At this time, the image set evaluation unit 83 may be configured to evaluate the quality of the image set based on the correspondence between the series of images included in the image set and the series of frames included in the video captured by the video capture unit 40.

更に、画像セット評価部83は、動画撮影部40により取得された動画像に含まれる一連のフレーム中のランドマークと、画像セットに含まれる一連の画像と動画像に含まれる一連のフレームとの間の対応関係と、に基づいて、画像セットの品質の評価を行うように構成されてよい。 Furthermore, the image set evaluation unit 83 may be configured to evaluate the quality of the image set based on landmarks in a series of frames included in a video captured by the video shooting unit 40 and the correspondence between a series of images included in the image set and a series of frames included in the video.

第3の動作例を実行可能なスリットランプ顕微鏡システムの例示的な態様を図13に示す。本態様のスリットランプ顕微鏡システム200は、スリットランプ顕微鏡210と、情報処理装置220とを含む。情報処理装置220は、例えば、上記の読影端末であり、読影アプリケーションを提供するための要素(ハードウェア、ソフトウェア)の図示は省略されている。 An exemplary embodiment of a slit lamp microscope system capable of executing the third operation example is shown in FIG. 13. The slit lamp microscope system 200 of this embodiment includes a slit lamp microscope 210 and an information processing device 220. The information processing device 220 is, for example, the image reading terminal described above, and elements (hardware, software) for providing the image reading application are omitted from the illustration.

スリットランプ顕微鏡210は、画像取得部211と、制御部212と、データ処理部213と、通信部214とを含んでいる。制御部212は制御部7と同様の構成及び機能を有していてよく、データ処理部213はデータ処理部8と同様の構成及び機能を有していてよい。データ処理部213は、例えば、図1Bに示すデータ処理部8の要素のうち、画像群処理部80及び加工画像構築部85を含んでいてよい。 The slit lamp microscope 210 includes an image acquisition unit 211, a control unit 212, a data processing unit 213, and a communication unit 214. The control unit 212 may have the same configuration and function as the control unit 7, and the data processing unit 213 may have the same configuration and function as the data processing unit 8. The data processing unit 213 may include, for example, the image group processing unit 80 and the processed image construction unit 85, which are elements of the data processing unit 8 shown in FIG. 1B.

画像取得部211は、被検眼の前眼部をスリット光でスキャンして画像を取得するための構成及び機能を有し、例えば、スリットランプ顕微鏡システム1の照明系2、撮影系3、移動機構6などを含んでいる。 The image acquisition unit 211 has the configuration and function to acquire an image by scanning the anterior segment of the subject's eye with slit light, and includes, for example, the illumination system 2, the imaging system 3, and the movement mechanism 6 of the slit lamp microscope system 1.

スリットランプ顕微鏡210により取得される画像は、例えば、1枚の画像、画像群、画像セット、3次元画像、レンダリング画像などであってよい。 The image acquired by the slit lamp microscope 210 may be, for example, a single image, a group of images, a set of images, a three-dimensional image, a rendered image, etc.

通信部214は、スリットランプ顕微鏡210と他の装置(外部装置)との間におけるデータ通信を行う。情報処理装置220は、この外部装置の一つである。 The communication unit 214 performs data communication between the slit lamp microscope 210 and other devices (external devices). The information processing device 220 is one of these external devices.

スリットランプ顕微鏡210の制御部212は、第3の動作例のステップS11~S23において実行される各種の制御を実行する。 The control unit 212 of the slit lamp microscope 210 performs various controls executed in steps S11 to S23 of the third operation example.

スリットランプ顕微鏡210のデータ処理部213は、第3の動作例のステップS11~S23において実行される各種のデータ処理を実行する。例えば、スリットランプ顕微鏡210のデータ処理部213は、画像群処理部80、画像群評価部81、画像セット作成部82、選択部821、画像セット評価部83などを含んでいてよい。スリットランプ顕微鏡210の画像群評価部81は、推論部811A、推論モデル812A、3次元画像構築部811B、比較部812B、評価処理部813B、評価データ生成部811C、評価処理部812Cなどを含んでいてよい。 The data processing unit 213 of the slit lamp microscope 210 executes various data processing operations performed in steps S11 to S23 of the third operation example. For example, the data processing unit 213 of the slit lamp microscope 210 may include an image group processing unit 80, an image group evaluation unit 81, an image set creation unit 82, a selection unit 821, an image set evaluation unit 83, etc. The image group evaluation unit 81 of the slit lamp microscope 210 may include an inference unit 811A, an inference model 812A, a three-dimensional image construction unit 811B, a comparison unit 812B, an evaluation processing unit 813B, an evaluation data generation unit 811C, an evaluation processing unit 812C, etc.

情報処理装置220は、記憶部221と、受付部222と、関心位置情報取得部223と、画像解析部224と、ユーザーインターフェイス225と、通信部226とを含んでいる。 The information processing device 220 includes a memory unit 221, a reception unit 222, a location of interest information acquisition unit 223, an image analysis unit 224, a user interface 225, and a communication unit 226.

記憶部221は、関連情報221aを記憶している。記憶部221は記憶部10と同様であってよく、関連情報221aは関連情報100と同様であってよい。 The memory unit 221 stores related information 221a. The memory unit 221 may be similar to the memory unit 10, and the related information 221a may be similar to the related information 100.

受付部222は、受付部11と同様であってよく、第3の動作例のステップS24を行う。 The reception unit 222 may be similar to the reception unit 11 and performs step S24 of the third operation example.

関心位置情報取得部223は、関心位置情報取得部86と同様であってよく、第3の動作例のステップS25を行う。 The location of interest information acquisition unit 223 may be similar to the location of interest information acquisition unit 86, and performs step S25 of the third operation example.

画像解析部224は、関心位置情報取得部223により取得された関心位置情報に基づいて、スリットランプ顕微鏡210により取得された画像の部分領域に対応する部分解析データを生成する。画像解析部224は、例えば、特定部87と解析部78とを含む。画像解析部224は、第3の動作例のステップS27及びS28を行う。 The image analysis unit 224 generates partial analysis data corresponding to a partial region of the image acquired by the slit lamp microscope 210 based on the position of interest information acquired by the position of interest information acquisition unit 223. The image analysis unit 224 includes, for example, an identification unit 87 and an analysis unit 78. The image analysis unit 224 performs steps S27 and S28 of the third operation example.

ユーザーインターフェイス225は、例えば、表示デバイスと操作デバイスとを含む。第3の動作例のステップS29は、ユーザーインターフェイス225の表示デバイスを用いて行われる。 The user interface 225 includes, for example, a display device and an operation device. Step S29 of the third operation example is performed using the display device of the user interface 225.

通信部226は、情報処理装置220と他の装置(外部装置)との間におけるデータ通信を行う。スリットランプ顕微鏡210は、この外部装置の一つである。 The communication unit 226 performs data communication between the information processing device 220 and other devices (external devices). The slit lamp microscope 210 is one of these external devices.

第3の動作例のステップS23は、スリットランプ顕微鏡210の通信部214から情報処理装置220に向けて画像セットを送信することによって行われる。情報処理装置220は、通信部226によって、スリットランプ顕微鏡210から送信された画像セットを受信する。受信された画像セットは、画像解析部224に入力される。 Step S23 of the third operation example is performed by transmitting an image set from the communication unit 214 of the slit lamp microscope 210 to the information processing device 220. The information processing device 220 receives the image set transmitted from the slit lamp microscope 210 via the communication unit 226. The received image set is input to the image analysis unit 224.

スリットランプ顕微鏡210が実行可能な処理の幾つかの例を以下に説明する。まず、スリットランプ顕微鏡210は、画像取得部211により収集された画像群を画像群処理部80によって処理することができる。 Some examples of processing that can be performed by the slit lamp microscope 210 are described below. First, the slit lamp microscope 210 can process the image group collected by the image acquisition unit 211 using the image group processing unit 80.

スリットランプ顕微鏡210の画像群処理部80は、画像群評価部81によって画像群の品質を評価することができる。画像群の品質が良好であると画像群評価部81により評価された場合、通信部214は、この画像群を情報処理装置220に向けて送信することができる。画像群の品質が良好でないと画像群評価部81により評価された場合、スリットランプ顕微鏡210の制御部7は、被検眼の前眼部に対する新たなスキャンを画像取得部(スキャン部)に実行させるための制御を実行することができる。 The image group processing unit 80 of the slit lamp microscope 210 can evaluate the quality of the image group by the image group evaluation unit 81. If the image group evaluation unit 81 evaluates the quality of the image group to be good, the communication unit 214 can transmit this image group to the information processing device 220. If the image group evaluation unit 81 evaluates the quality of the image group to be bad, the control unit 7 of the slit lamp microscope 210 can execute control to cause the image acquisition unit (scanning unit) to execute a new scan of the anterior segment of the examinee's eye.

スリットランプ顕微鏡210の画像群処理部80は、画像セット作成部82によって、先のスキャンで収集された画像群と新たなスキャンで収集された新たな画像群とを含む2以上の画像群から、スキャン範囲に対応する一連の画像を選択して画像セットを作成することができる。 The image group processing unit 80 of the slit lamp microscope 210 can use the image set creation unit 82 to select a series of images corresponding to the scan range from two or more image groups, including an image group collected in a previous scan and a new image group collected in a new scan, to create an image set.

スリットランプ顕微鏡210の画像取得部211(スキャン部)は、被検眼の前眼部に2回以上のスキャンを(例えば連続して)適用して2以上の画像群を収集することができる。スリットランプ顕微鏡210の画像群処理部80は、画像セット作成部82によって、2回以上のスキャンで収集された2以上の画像群から、スキャン範囲に対応する一連の画像を選択して画像セットを作成することができる。 The image acquisition unit 211 (scanning unit) of the slit lamp microscope 210 can collect two or more image groups by applying two or more scans (e.g., consecutively) to the anterior segment of the subject's eye. The image group processing unit 80 of the slit lamp microscope 210 can create an image set by using the image set creation unit 82 to select a series of images corresponding to the scan range from the two or more image groups collected by the two or more scans.

スリットランプ顕微鏡210の画像群処理部80は、画像セット評価部83によって画像セットの品質を評価することができる。画像セットの品質が良好であると画像セット評価部83により評価された場合、通信部214は、この画像セットを情報処理装置220に向けて送信することができる。画像セットの品質が良好でないと画像セット評価部83により評価された場合、スリットランプ顕微鏡210の制御部7は、被検眼の前眼部に対する新たなスキャンを画像取得部(スキャン部)に実行させるための制御を実行することができる。 The image group processing unit 80 of the slit lamp microscope 210 can evaluate the quality of the image set by the image set evaluation unit 83. If the image set evaluation unit 83 evaluates the quality of the image set to be good, the communication unit 214 can transmit this image set to the information processing device 220. If the image set evaluation unit 83 evaluates the quality of the image set to be bad, the control unit 7 of the slit lamp microscope 210 can execute control to cause the image acquisition unit (scanning unit) to execute a new scan of the anterior segment of the subject's eye.

<効果>
例示的な態様に係るスリットランプ顕微鏡システムにより奏される幾つかの効果について説明する。
<Effects>
Several advantages provided by the slit lamp microscope system according to the exemplary embodiment will now be described.

例示的な態様のスリットランプ顕微鏡システム1は、受付部11と、関心位置情報取得部86と、画像取得部(照明系2、撮影系3、移動機構6など)と、画像解析部(データ処理部8)とを含む。なお、スリットランプ顕微鏡システム1は記憶部10を含んでいるが、格納手段はスリットランプ顕微鏡システムからアクセス可能な外部装置であってもよい。 The exemplary slit lamp microscope system 1 includes a reception unit 11, a position of interest information acquisition unit 86, an image acquisition unit (illumination system 2, imaging system 3, moving mechanism 6, etc.), and an image analysis unit (data processing unit 8). Note that although the slit lamp microscope system 1 includes a memory unit 10, the storage means may be an external device accessible from the slit lamp microscope system.

受付部11は、患者を識別するための患者識別情報を受け付ける。関心位置情報取得部86は、複数の患者識別情報のそれぞれに関心領域の位置を示す関心位置情報が予め関連付けられて格納された格納手段(記憶部10)から、受付部11により受け付けられた患者識別情報に関連付けられた関心位置情報を取得する。画像取得部は、受付部11により受け付けられた患者識別情報に対応する患者の被検眼の前眼部をスリット光でスキャンして画像を取得する。画像解析部は、関心位置情報取得部により取得された関心位置情報に基づいて、画像取得部により取得された画像の部分領域に対応する部分解析データを生成する。 The reception unit 11 receives patient identification information for identifying a patient. The position of interest information acquisition unit 86 acquires position of interest information associated with the patient identification information received by the reception unit 11 from a storage means (memory unit 10) in which position of interest information indicating the position of a region of interest is pre-associated with each of a plurality of patient identification information and stored. The image acquisition unit acquires an image by scanning the anterior segment of the subject eye of the patient corresponding to the patient identification information received by the reception unit 11 with slit light. The image analysis unit generates partial analysis data corresponding to a partial region of the image acquired by the image acquisition unit based on the position of interest information acquired by the position of interest information acquisition unit.

このように構成されたスリットランプ顕微鏡システム1によれば、対象患者について設定された関心領域の解析データを、前眼部をスリット光でスキャンして取得された画像から生成することが可能である。これにより、患者ごとに注目すべき領域について継続的に観察することが可能になり、疾患種別や病期や病態にかかわらず被検眼の局所的な微少変化を捉えることが可能となる。 With the slit lamp microscope system 1 configured in this way, it is possible to generate analysis data for the region of interest set for the target patient from an image acquired by scanning the anterior segment with slit light. This makes it possible to continuously observe the region of interest for each patient, and to capture small local changes in the examinee's eye regardless of the type of disease, stage, or condition.

スリットランプ顕微鏡システム1の画像解析部は、例えば、特定部87(第1特定部)と、解析部88(第1解析部)とを含んでいる。特定部87(第1特定部)は、関心位置情報取得部86により取得された関心位置情報に基づいて、画像取得部により取得された画像の部分領域を特定するように構成されていてよい。解析部88(第1解析部)は、特定部87により特定された部分領域を解析して部分解析データを生成するように構成されていてよい。 The image analysis unit of the slit lamp microscope system 1 includes, for example, an identification unit 87 (first identification unit) and an analysis unit 88 (first analysis unit). The identification unit 87 (first identification unit) may be configured to identify a partial region of the image acquired by the image acquisition unit based on the position of interest information acquired by the position of interest information acquisition unit 86. The analysis unit 88 (first analysis unit) may be configured to analyze the partial region identified by the identification unit 87 and generate partial analysis data.

関心位置情報は、例えば、過去に取得された被検眼の前眼部の基準画像中の領域の位置を示す第1位置情報を含んでいてよい。この場合、特定部87(第1特定部)は、画像取得部により取得された画像と基準画像との間の偏位を算出する偏位算出部871を含んでいてよい。更に、特定部87(第1特定部)は、第1位置情報と、偏位算出部871により算出された偏位とに基づいて、部分領域の特定を行うように構成されていてよい。このような構成によれば、基準画像を参照することで部分領域を精度良く特定することができ、当該患者の関心領域に対応する解析データの変化を精度良く捉えることが可能となる。 The position information of interest may include, for example, first position information indicating the position of an area in a reference image of the anterior segment of the subject's eye previously acquired. In this case, the identification unit 87 (first identification unit) may include a deviation calculation unit 871 that calculates the deviation between the image acquired by the image acquisition unit and the reference image. Furthermore, the identification unit 87 (first identification unit) may be configured to identify the partial area based on the first position information and the deviation calculated by the deviation calculation unit 871. With this configuration, the partial area can be accurately identified by referring to the reference image, and it becomes possible to accurately capture changes in the analysis data corresponding to the area of interest of the patient.

関心位置情報は、例えば、前眼部の所定部位の位置を示す第2位置情報を含んでいてよい。この場合、特定部87(第1特定部)は、画像取得部により取得された画像において第2位置情報が示す位置に対応する領域を、上記の部分領域として特定するように構成されていてよい。このような構成によれば、関心領域が基準画像に対して設定されていない場合においても、部分領域を精度良く特定することができ、当該患者の関心領域に対応する解析データの変化を精度良く捉えることが可能となる。 The position information of interest may include, for example, second position information indicating the position of a specific site of the anterior eye. In this case, the identification unit 87 (first identification unit) may be configured to identify, as the above-mentioned partial region, an area corresponding to the position indicated by the second position information in the image acquired by the image acquisition unit. With such a configuration, even if the region of interest is not set with respect to the reference image, it is possible to accurately identify the partial region, and it is possible to accurately capture changes in the analysis data corresponding to the patient's region of interest.

特定部87(第1特定部)は、画像取得部により取得された画像において当該患者の関心領域に対応する領域を含むように、上記の部分領域を特定するように構成されていてよい。更に、特定部87(第1特定部)は、画像取得部により取得された画像において当該患者の関心領域に対応する領域より広い領域を、上記の部分領域として特定するように構成されていてよい。このような構成によれば、当該患者の関心領域全体の解析結果を提供することが可能になる。 The identification unit 87 (first identification unit) may be configured to identify the partial region described above so as to include an area corresponding to the patient's region of interest in the image acquired by the image acquisition unit. Furthermore, the identification unit 87 (first identification unit) may be configured to identify an area larger than the area corresponding to the patient's region of interest in the image acquired by the image acquisition unit as the partial region described above. With this configuration, it becomes possible to provide an analysis result of the entire region of interest of the patient.

スリットランプ顕微鏡システム1は、更新部89(第1更新部)を含んでいる。更新部89(第1更新部)は、特定部87(第1特定部)により新たな部分領域の特定が行われたときに動作する。更新部89(第1更新部)は、当該患者の患者識別情報に関連付けられた関心位置情報を、この新たな部分領域に基づいて更新するように構成されている。これにより、部分領域の位置や大きさが変化した場合でもフォローアップが容易になり、局所的な微少な変化を捉えることが可能となる。 The slit lamp microscope system 1 includes an update unit 89 (first update unit). The update unit 89 (first update unit) operates when a new partial region is identified by the identification unit 87 (first identification unit). The update unit 89 (first update unit) is configured to update the position of interest information associated with the patient identification information of the patient based on this new partial region. This makes it easier to follow up even if the position or size of the partial region changes, and makes it possible to capture small local changes.

スリットランプ顕微鏡システム1の画像解析部は、例えば、解析部88(第2解析部)と、特定部87(第2特定部)とを含んでいる。解析部88(第2解析部)は、画像取得部により取得された画像を解析して解析データを生成するように構成されていてよい。特定部87(第2特定部)は、関心位置情報取得部86により取得された関心位置情報に基づいて、解析部88(第2解析部)により生成された解析データから部分解析データを特定するように構成されていてよい。 The image analysis unit of the slit lamp microscope system 1 includes, for example, an analysis unit 88 (second analysis unit) and an identification unit 87 (second identification unit). The analysis unit 88 (second analysis unit) may be configured to analyze the image acquired by the image acquisition unit to generate analysis data. The identification unit 87 (second identification unit) may be configured to identify partial analysis data from the analysis data generated by the analysis unit 88 (second analysis unit) based on the position of interest information acquired by the position of interest information acquisition unit 86.

関心位置情報は、例えば、過去に取得された被検眼の前眼部の基準画像中の領域の位置を示す第1位置情報を含んでいてよい。この場合、特定部87(第2特定部)は、画像取得部により取得された画像と基準画像との間の偏位を算出する偏位算出部871を含んでいてよい。更に、特定部87(第2特定部)は、第1位置情報と、偏位算出部871により算出された偏位とに基づいて、解析部88(第2解析部)により生成された解析データから部分解析データを特定するように構成されていてよい。このような構成によれば、基準画像を参照することで部分解析データを精度良く特定することができ、当該患者の関心領域に対応する解析データの変化を精度良く捉えることが可能となる。 The position information of interest may include, for example, first position information indicating the position of an area in a reference image of the anterior segment of the subject's eye previously acquired. In this case, the identification unit 87 (second identification unit) may include a deviation calculation unit 871 that calculates the deviation between the image acquired by the image acquisition unit and the reference image. Furthermore, the identification unit 87 (second identification unit) may be configured to identify partial analysis data from the analysis data generated by the analysis unit 88 (second analysis unit) based on the first position information and the deviation calculated by the deviation calculation unit 871. With this configuration, the partial analysis data can be accurately identified by referring to the reference image, and it becomes possible to accurately capture changes in the analysis data corresponding to the area of interest of the patient.

関心位置情報は、例えば、前眼部の所定部位の位置を示す第2位置情報を含んでいてよい。この場合、特定部87(第2特定部)は、第2位置情報が示す位置に対応する解析データの領域を、上記の部分解析データとして特定するように構成されていてよい。このような構成によれば、関心領域が基準画像に対して設定されていない場合においても、部分解析データを精度良く特定することができ、当該患者の関心領域に対応する解析データの変化を精度良く捉えることが可能となる。 The position information of interest may include, for example, second position information indicating the position of a specific site of the anterior eye. In this case, the identification unit 87 (second identification unit) may be configured to identify the region of the analysis data corresponding to the position indicated by the second position information as the above-mentioned partial analysis data. With such a configuration, even if the region of interest is not set with respect to the reference image, it is possible to accurately identify the partial analysis data, and it is possible to accurately capture changes in the analysis data corresponding to the patient's region of interest.

特定部87(第2特定部)は、解析部88(第2解析部)により生成された解析データにおいて当該患者の関心領域に対応するデータ領域を含むように、上記の部分解析データを特定するように構成されていてよい。更に、特定部87(第2特定部)は、解析部88(第2解析部)により生成された解析データにおいて当該患者の関心領域に対応するデータ領域より広いデータ領域を、上記の部分解析データとして特定するように構成されていてよい。このような構成によれば、当該患者の関心領域全体の解析結果を提供することが可能になる。 The identification unit 87 (second identification unit) may be configured to identify the partial analysis data so as to include a data area corresponding to the patient's region of interest in the analysis data generated by the analysis unit 88 (second analysis unit). Furthermore, the identification unit 87 (second identification unit) may be configured to identify a data area wider than the data area corresponding to the patient's region of interest in the analysis data generated by the analysis unit 88 (second analysis unit) as the partial analysis data. With this configuration, it becomes possible to provide an analysis result of the entire region of interest of the patient.

スリットランプ顕微鏡システム1は、更新部89(第2更新部)を含んでいる。更新部89(第2更新部)は、特定部87(第2特定部)により新たな範囲の部分解析データが特定されたときに動作する。更新部89(第2更新部)は、当該患者の前記患者識別情報に関連付けられた関心位置情報を、この新たな範囲に基づいて更新するように構成されている。これにより、部分解析データが表す位置や大きさが変化した場合でもフォローアップが容易になり、局所的な微少な変化を捉えることが可能となる。 The slit lamp microscope system 1 includes an update unit 89 (second update unit). The update unit 89 (second update unit) operates when a new range of partial analysis data is identified by the identification unit 87 (second identification unit). The update unit 89 (second update unit) is configured to update the position of interest information associated with the patient identification information of the patient based on this new range. This makes it easier to follow up even if the position or size represented by the partial analysis data changes, and makes it possible to capture small local changes.

スリットランプ顕微鏡システム200によれば、スリットランプ顕微鏡システム1と同様に、疾患種別や病期や病態にかかわらず眼の局所的な微少変化を捉えることが可能である。また、スリットランプ顕微鏡システム200によれば、スリットランプ210と情報処理装置220とを互いに遠隔配置することができるので、従来は困難であったスリットランプ顕微鏡を用いた遠隔医療を実用化することが可能になる。 Slit lamp microscope system 200, like slit lamp microscope system 1, is capable of capturing small local changes in the eye regardless of disease type, disease stage, or pathological condition. In addition, slit lamp microscope system 200 allows the slit lamp 210 and information processing device 220 to be remotely located from each other, making it possible to put into practical use remote medical care using a slit lamp microscope, which was previously difficult.

本開示は、いずれかの態様に係る装置又はシステムを制御する方法を提供するものである。また、本開示は、この制御方法をコンピュータに実行させるプログラムや、このプログラムを記録したコンピュータ可読な非一時的記録媒体を提供するものである。この非一時的記録媒体は任意の形態であってよく、その例として、磁気ディスク、光ディスク、光磁気ディスク、半導体メモリなどがある。 The present disclosure provides a method for controlling a device or system according to any of the aspects. The present disclosure also provides a program for causing a computer to execute the control method, and a computer-readable non-transitory recording medium on which the program is recorded. The non-transitory recording medium may be in any form, and examples of such a recording medium include a magnetic disk, an optical disk, a magneto-optical disk, and a semiconductor memory.

本開示は、いずれかの態様に係る方法(撮影方法、データ処理方法、データ通信方法など)を提供するものである。また、本開示は、この方法をコンピュータに実行させるプログラムや、このプログラムを記録したコンピュータ可読な非一時的記録媒体を提供するものである。 The present disclosure provides a method relating to any of the aspects (such as an imaging method, a data processing method, or a data communication method). The present disclosure also provides a program for causing a computer to execute the method, and a computer-readable non-transitory recording medium having the program recorded thereon.

以上に説明した幾つかの態様は例示的な実施形態であり、本発明の限定を意図したものえはなく、本発明の要旨の範囲内における任意の変形(省略、置換、付加等)を上記の態様に対して適宜に施すことが可能である。 The above-described aspects are exemplary embodiments and are not intended to limit the present invention. Any modifications (omissions, substitutions, additions, etc.) within the scope of the gist of the present invention may be made to the above-described aspects as appropriate.

1 スリットランプ顕微鏡
2 照明系
3 撮影系
4 光学系
5 撮像素子
6 移動機構
7 制御部
8 データ処理部
80 画像群処理部
81 画像群評価部
82 画像セット作成部
83 画像セット評価部
85 加工画像構築部
86 関心位置情報取得部
87 特定部
88 解析部
89 更新部
9 通信部
10 記憶部
11 受付部
100 関連情報
200 スリットランプ顕微鏡システム
210 スリットランプ顕微鏡
220 情報処理装置

REFERENCE SIGNS LIST 1 Slit lamp microscope 2 Illumination system 3 Photography system 4 Optical system 5 Image sensor 6 Movement mechanism 7 Control unit 8 Data processing unit 80 Image group processing unit 81 Image group evaluation unit 82 Image set creation unit 83 Image set evaluation unit 85 Processed image construction unit 86 Interest position information acquisition unit 87 Identification unit 88 Analysis unit 89 Update unit 9 Communication unit 10 Memory unit 11 Reception unit 100 Related information 200 Slit lamp microscope system 210 Slit lamp microscope 220 Information processing device

Claims (25)

患者を識別するための患者識別情報を受け付ける受付部と、
複数の患者識別情報のそれぞれに関心領域の位置を示す関心位置情報が予め関連付けられて格納された格納手段から、前記受付部により受け付けられた前記患者識別情報に関連付けられた関心位置情報を取得する関心位置情報取得部と、
前記患者識別情報に対応する患者の被検眼の前眼部をスリット光でスキャンして画像を取得する画像取得部と、
前記関心位置情報取得部により取得された前記関心位置情報に基づいて、前記画像取得部により取得された前記画像の部分領域に対応する部分解析データを生成する画像解析部と
を含
前記画像解析部は、
前記画像取得部により取得された前記画像を解析して解析データを生成する第2解析部と、
前記関心位置情報取得部により取得された前記関心位置情報に基づいて、前記解析データから部分解析データを特定する第2特定部と
を含む、
スリットランプ顕微鏡システム。
a reception unit that receives patient identification information for identifying a patient;
a position of interest information acquiring unit that acquires position of interest information associated with the patient identification information accepted by the accepting unit from a storage unit in which position of interest information indicating a position of a region of interest is previously associated with each of a plurality of patient identification information and stored;
an image acquisition unit that acquires an image by scanning an anterior segment of an eye to be examined of a patient corresponding to the patient identification information with a slit light;
an image analysis unit that generates partial analysis data corresponding to a partial region of the image acquired by the image acquisition unit based on the location of interest information acquired by the location of interest information acquisition unit,
The image analysis unit
A second analysis unit that analyzes the image acquired by the image acquisition unit and generates analysis data;
a second identification unit that identifies partial analysis data from the analysis data based on the location of interest information acquired by the location of interest information acquisition unit;
Including,
Slit lamp microscope system.
前記関心位置情報は、過去に取得された前記前眼部の基準画像中の領域の位置を示す第1位置情報を含み、
前記第2特定部は、前記基準画像と前記画像との間の偏位を算出する偏位算出部を含み、前記第1位置情報と前記偏位とに基づいて前記解析データから前記部分解析データを特定する、
請求項のスリットランプ顕微鏡システム。
the position information of interest includes first position information indicating a position of a region in a reference image of the anterior eye segment previously acquired,
The second identification unit includes a deviation calculation unit that calculates a deviation between the reference image and the image, and identifies the partial analysis data from the analysis data based on the first position information and the deviation.
2. The slit lamp microscope system of claim 1 .
前記関心位置情報は、前眼部の所定部位の位置を示す第2位置情報を含み、
前記第2特定部は、前記第2位置情報が示す前記位置に対応する前記解析データの領域を前記部分解析データとして特定する、
請求項のスリットランプ顕微鏡システム。
the position of interest information includes second position information indicating a position of a predetermined site of an anterior segment of the eye,
The second identification unit identifies an area of the analysis data corresponding to the position indicated by the second position information as the partial analysis data.
2. The slit lamp microscope system of claim 1 .
前記第2特定部は、前記関心領域に対応する前記解析データの領域を含むように前記部分解析データを特定する、
請求項のいずれかのスリットランプ顕微鏡システム。
the second identification unit identifies the partial analysis data so as to include a region of the analysis data corresponding to the region of interest;
The slit lamp microscope system according to any one of claims 1 to 3 .
前記第2特定部は、前記関心領域に対応する前記解析データの前記領域より広い領域を前記部分解析データとして特定する、
請求項のスリットランプ顕微鏡システム。
The second identification unit identifies, as the partial analysis data, a region that is larger than the region of the analysis data corresponding to the region of interest.
5. The slit lamp microscope system of claim 4 .
前記第2特定部により新たな範囲の部分解析データが特定された場合に、前記患者の前記患者識別情報に関連付けられた前記関心位置情報を前記新たな範囲に基づいて更新する第2更新部を更に含む、
請求項のいずれかのスリットランプ顕微鏡システム。
and a second update unit configured to update the position of interest information associated with the patient identification information of the patient based on a new range of partial analysis data identified by the second identification unit.
The slit lamp microscope system according to any one of claims 1 to 5 .
前記画像取得部は、前記前眼部を前記スリット光でスキャンして画像群を収集するスキャン部を含み、
前記スキャン部は、
前記前眼部に前記スリット光を照射する照明系と、
前記照明系とは異なる方向から前記前眼部を撮影する撮影系と、
前記照明系及び前記撮影系を移動する移動機構と
を含み、
前記撮影系は、前記移動機構による前記照明系及び前記撮影系の移動と並行して繰り返し撮影を行う、
請求項1~のいずれかのスリットランプ顕微鏡システム。
the image acquisition unit includes a scanning unit that scans the anterior segment with the slit light to collect a group of images;
The scanning unit includes:
an illumination system that irradiates the anterior segment with the slit light;
an imaging system that images the anterior segment from a direction different from that of the illumination system;
a moving mechanism for moving the illumination system and the imaging system,
the imaging system repeatedly performs imaging in parallel with the movement of the illumination system and the imaging system by the movement mechanism;
The slit lamp microscope system according to any one of claims 1 to 6 .
前記撮影系は、
前記スリット光が照射された前記前眼部からの光を導く光学系と、
前記光学系により導かれた前記光を撮像面で受光する撮像素子と
を含み、
前記照明系の光軸に沿う物面と前記光学系と前記撮像面とがシャインプルーフの条件を満足する、
請求項のスリットランプ顕微鏡システム。
The imaging system includes:
an optical system for guiding light from the anterior segment irradiated with the slit light;
an imaging element that receives the light guided by the optical system on an imaging surface,
an object surface along the optical axis of the illumination system, the optical system, and the imaging surface satisfy the Scheimpflug condition;
The slit lamp microscope system of claim 7 .
前記移動機構は、前記照明系により前記前眼部に照射される前記スリット光を前記スリット光の幅方向に移動するように前記照明系及び前記撮影系を移動する、
請求項又はのスリットランプ顕微鏡システム。
the moving mechanism moves the illumination system and the imaging system so as to move the slit light irradiated by the illumination system to the anterior eye segment in a width direction of the slit light.
9. A slit lamp microscope system according to claim 7 or 8 .
前記画像解析部は、前記画像群に含まれる少なくとも1つの画像のそれぞれから部分解析データを生成する、
請求項のいずれかのスリットランプ顕微鏡システム。
The image analysis unit generates partial analysis data from at least one image included in the image group.
A slit lamp microscope system according to any one of claims 7 to 9 .
前記画像取得部は、前記画像群から加工画像を構築する加工画像構築部を更に含む、
請求項10のいずれかのスリットランプ顕微鏡システム。
The image acquisition unit further includes a processed image construction unit that constructs a processed image from the image group.
A slit lamp microscope system according to any one of claims 7 to 10 .
前記加工画像構築部は、前記加工画像として3次元画像を構築する、
請求項11のスリットランプ顕微鏡システム。
The processed image construction unit constructs a three-dimensional image as the processed image.
The slit lamp microscope system of claim 11 .
前記加工画像構築部は、前記加工画像として前記3次元画像のレンダリング画像を構築する、
請求項12のスリットランプ顕微鏡システム。
The processed image constructing unit constructs a rendering image of the three-dimensional image as the processed image.
13. The slit lamp microscope system of claim 12 .
前記画像解析部は、前記加工画像から部分解析データを生成する、
請求項1113のいずれかのスリットランプ顕微鏡システム。
The image analysis unit generates partial analysis data from the processed image.
A slit lamp microscope system according to any one of claims 11 to 13 .
スリットランプ顕微鏡と、情報処理装置とを含み、
前記スリットランプ顕微鏡は、前記画像取得部と、前記情報処理装置に向けてデータを送信する送信部とを含み、
前記情報処理装置は、前記送信部により送信された前記データを受信する受信部と、前記受付部と、前記関心位置情報取得部と、前記画像解析部とを含む、
請求項14のいずれかのスリットランプ顕微鏡システム。
A slit lamp microscope and an information processing device,
the slit lamp microscope includes the image acquisition unit and a transmission unit that transmits data to the information processing device,
The information processing device includes a receiving unit that receives the data transmitted by the transmitting unit, the accepting unit, the position of interest information acquiring unit, and the image analyzing unit.
A slit lamp microscope system according to any one of claims 7 to 14 .
前記スリットランプ顕微鏡は、前記スキャン部により収集された前記画像群を処理する画像群処理部を更に含む、
請求項15のスリットランプ顕微鏡システム。
The slit lamp microscope further includes an image group processing unit that processes the image group collected by the scanning unit.
16. The slit lamp microscope system of claim 15 .
前記画像群処理部は、前記画像群の品質を評価する第1評価部を含む、
請求項16のスリットランプ顕微鏡システム。
The image group processing unit includes a first evaluation unit that evaluates a quality of the image group.
17. The slit lamp microscope system of claim 16 .
前記画像群の品質が良好であると前記第1評価部により評価された場合、前記送信部は、前記画像群を前記情報処理装置に向けて送信する、
請求項17のスリットランプ顕微鏡システム。
When the first evaluation unit evaluates that the quality of the image group is good, the transmission unit transmits the image group to the information processing device.
20. The slit lamp microscope system of claim 17 .
前記画像群の品質が良好でないと前記第1評価部により評価された場合に、前記前眼部に対する新たなスキャンを前記スキャン部に実行させるための制御を実行する第1制御部を更に含む、
請求項17又は18のスリットランプ顕微鏡システム。
a first control unit that controls the scanning unit to perform a new scan of the anterior segment when the first evaluation unit evaluates that the image group has poor quality,
19. A slit lamp microscope system according to claim 17 or 18 .
前記画像群処理部は、前記画像群と前記新たなスキャンにより収集された新たな画像群とを含む2以上の画像群から、スキャン範囲に対応する一連の画像を選択して画像セットを作成する画像セット作成部を更に含む、
請求項19のスリットランプ顕微鏡システム。
The image group processing unit further includes an image set creation unit that selects a series of images corresponding to a scan range from two or more image groups including the image group and a new image group collected by the new scan to create an image set.
20. The slit lamp microscope system of claim 19 .
前記スキャン部は、前記前眼部に2回以上のスキャンを適用して2以上の画像群を収集し、
前記画像群処理部は、前記2以上の画像群から、スキャン範囲に対応する一連の画像を選択して画像セットを作成する画像セット作成部を含む、
請求項16のスリットランプ顕微鏡システム。
The scanning unit applies two or more scans to the anterior segment to collect two or more sets of images;
The image group processing unit includes an image set creation unit that selects a series of images corresponding to a scan range from the two or more image groups and creates an image set.
17. The slit lamp microscope system of claim 16 .
前記画像群処理部は、前記画像セット作成部により作成された前記画像セットの品質を評価する第2評価部を更に含む、
請求項20又は21のスリットランプ顕微鏡システム。
The image group processing unit further includes a second evaluation unit that evaluates the quality of the image set created by the image set creation unit.
22. A slit lamp microscope system according to claim 20 or 21 .
前記画像セットの品質が良好であると前記第2評価部により評価された場合、前記送信部は、前記画像セットを前記情報処理装置に向けて送信する、
請求項22のスリットランプ顕微鏡システム。
When the second evaluation unit evaluates that the quality of the image set is good, the transmission unit transmits the image set to the information processing device.
23. The slit lamp microscope system of claim 22 .
前記画像セットの品質が良好でないと前記第2評価部により評価された場合に、前記前眼部に対する新たなスキャンを前記スキャン部に実行させるための制御を実行する第2制御部を更に含む、
請求項22又は23のスリットランプ顕微鏡システム。
and a second control unit that controls the scanning unit to perform a new scan of the anterior segment when the second evaluation unit evaluates that the quality of the image set is not good.
24. A slit lamp microscope system according to claim 22 or 23 .
前記関心領域は、角膜、虹彩、瞳孔、水晶体、眼内レンズ、毛様体、隅角、線維柱帯、及びシュレム管のいずれかに相当する領域を含む、
請求項1~24のいずれかのスリットランプ顕微鏡システム。
The region of interest includes a region corresponding to any one of the cornea, the iris, the pupil, the crystalline lens, the intraocular lens, the ciliary body, the angle, the trabecular meshwork, and the Schlemm's canal.
A slit lamp microscope system according to any one of claims 1 to 24 .
JP2020154222A 2020-09-15 2020-09-15 Slit Lamp Microscope System Active JP7560300B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020154222A JP7560300B2 (en) 2020-09-15 2020-09-15 Slit Lamp Microscope System

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020154222A JP7560300B2 (en) 2020-09-15 2020-09-15 Slit Lamp Microscope System

Publications (2)

Publication Number Publication Date
JP2022048413A JP2022048413A (en) 2022-03-28
JP7560300B2 true JP7560300B2 (en) 2024-10-02

Family

ID=80844081

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020154222A Active JP7560300B2 (en) 2020-09-15 2020-09-15 Slit Lamp Microscope System

Country Status (1)

Country Link
JP (1) JP7560300B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013246187A (en) 2012-05-23 2013-12-09 Olympus Corp Microscope system, and method and program for specimen image generation
JP2016022062A (en) 2014-07-17 2016-02-08 国立大学法人東北大学 Ophthalmological analysis device and ophthalmological photographing device
JP2017136205A (en) 2016-02-03 2017-08-10 キヤノン株式会社 Picture display unit, picture display method, and program
JP2017153543A (en) 2016-02-29 2017-09-07 株式会社トプコン Ophthalmology imaging device
US20190029514A1 (en) 2017-07-26 2019-01-31 Topcon Corporation Ophthalmic system, ophthalmic information processing apparatus, and ophthalmic information processing method
JP2019213733A (en) 2018-06-13 2019-12-19 株式会社トプコン Slit lamp microscope and ophthalmologic system

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013246187A (en) 2012-05-23 2013-12-09 Olympus Corp Microscope system, and method and program for specimen image generation
JP2016022062A (en) 2014-07-17 2016-02-08 国立大学法人東北大学 Ophthalmological analysis device and ophthalmological photographing device
JP2017136205A (en) 2016-02-03 2017-08-10 キヤノン株式会社 Picture display unit, picture display method, and program
JP2017153543A (en) 2016-02-29 2017-09-07 株式会社トプコン Ophthalmology imaging device
US20190029514A1 (en) 2017-07-26 2019-01-31 Topcon Corporation Ophthalmic system, ophthalmic information processing apparatus, and ophthalmic information processing method
JP2019024618A (en) 2017-07-26 2019-02-21 株式会社トプコン Ophthalmologic system and ophthalmologic information processing device
JP2019213733A (en) 2018-06-13 2019-12-19 株式会社トプコン Slit lamp microscope and ophthalmologic system

Also Published As

Publication number Publication date
JP2022048413A (en) 2022-03-28

Similar Documents

Publication Publication Date Title
JP6923384B2 (en) Ophthalmic system and ophthalmic information processing device
WO2021029231A1 (en) Ophthalmic device, method for controlling ophthalmic device, and program
JP7154044B2 (en) slit lamp microscope and ophthalmic system
CN112512402B (en) Slit-lamp microscope and ophthalmic system
JP7228342B2 (en) slit lamp microscope and ophthalmic system
WO2021256130A1 (en) Slit lamp microscope
JP7560303B2 (en) Slit Lamp Microscope System
JP2021097989A (en) Ophthalmologic apparatus, control method of ophthalmologic apparatus, and program
JP2024152821A (en) Slit Lamp Microscope
JP7517903B2 (en) Slit Lamp Microscope System
WO2021261103A1 (en) Slit-lamp microscope
JP7345610B2 (en) slit lamp microscope
JP7560300B2 (en) Slit Lamp Microscope System
WO2022030364A1 (en) Slit-lamp microscope
JP2024159832A (en) Slit Lamp Microscope
WO2023037658A1 (en) Ophthalmological device, method for controlling ophthalmological device, method for processing eye image, program, and recording medium
JP2024008246A (en) Image processing method, image processing device, program, and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230905

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240523

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240625

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240808

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240903

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240919

R150 Certificate of patent or registration of utility model

Ref document number: 7560300

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150