JP6471533B2 - 視線検出装置および視線検出方法 - Google Patents

視線検出装置および視線検出方法 Download PDF

Info

Publication number
JP6471533B2
JP6471533B2 JP2015035633A JP2015035633A JP6471533B2 JP 6471533 B2 JP6471533 B2 JP 6471533B2 JP 2015035633 A JP2015035633 A JP 2015035633A JP 2015035633 A JP2015035633 A JP 2015035633A JP 6471533 B2 JP6471533 B2 JP 6471533B2
Authority
JP
Japan
Prior art keywords
region
center
pupil
unit
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015035633A
Other languages
English (en)
Other versions
JP2016157325A (ja
Inventor
修二 箱嶋
修二 箱嶋
首藤 勝行
勝行 首藤
賢 二宮
賢 二宮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2015035633A priority Critical patent/JP6471533B2/ja
Publication of JP2016157325A publication Critical patent/JP2016157325A/ja
Application granted granted Critical
Publication of JP6471533B2 publication Critical patent/JP6471533B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Eye Examination Apparatus (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、視線検出装置および視線検出方法に関する。
操作者または被験者がモニタ画面などの観察面上で注視している位置を検出する、視線検出装置が提案されている。検出した注視点の表示方法としては、用途によって、被験者の注視点の位置を明示的に示すべくモニタ画面上にリアルタイムに指標などを表示する方法、および、モニタ上には被験者に見せたい画像のみ表示し測定終了後に被験者の注視点を表示する方法などが考えられる。
注視点検出の計算を行うためには、カメラのフレーム単位で被験者の瞳孔中心、および角膜反射の世界座標が必要である。そのためには常に1組のステレオカメラを構成する複数のカメラそれぞれによる、瞳孔中心および角膜反射のカメラ座標値をすべて取得しなければならない。
特許第2739331号公報
しかしながら、実際には、個人差および環境等の影響により、すべてのカメラ座標値を常に取得することは困難である。従って、第三者が被験者の注視点の検出状況を把握することは有意義である。一方、被験者をモニタ上の画像に注視させたい場合には、モニタ上に被験者の注視点などの情報を表示することは望ましくない。注視点の情報を表示しない場合、第三者が被験者の注視点の検出状況をリアルタイムに判断することが困難となる。そのため、被験者に対する測定がすべて終了した後でなければ、注視点の検出状況を確認することができず、終了後に再測定を行う必要がある場合が発生するなど、注視点検出の効率が悪い。
本発明は、上記に鑑みてなされたものであって、検出の状況を効率的に把握できる視線検出装置および視線検出方法を提供することを目的とする。
上述した課題を解決し、目的を達成するために、本発明は、被験者の眼球の画像から瞳孔を示す第1領域と、角膜反射を示す第2領域と、を検出する検出部と、前記第1領域および前記第2領域のうち少なくとも一方の検出状況を示す状況情報を表示部に表示させる出力制御部と、を備え、前記出力制御部は、診断画像を前記表示部に表示させ、前記診断画像より上に前記状況情報を表示させる。
本発明にかかる視線検出装置および視線検出方法は、検出の状況を効率的に把握できるという効果を奏する。
図1は、1つの光源を使用した場合の被験者の目の様子を示す図である。 図2は、2つの光源を使用した場合の被験者の目の様子を示す図である。 図3は、本実施形態の表示部、ステレオカメラ、赤外線光源および被験者の配置の一例を示す図である。 図4は、本実施形態の表示部、ステレオカメラ、赤外線光源および被験者の配置の一例を示す図である。 図5は、診断支援装置の機能の概要を示す図である。 図6は、図5に示す各部の詳細な機能の一例を示すブロック図である。 図7は、1つの光源を用いると仮定した場合の処理の概要を説明する図である。 図8は、本実施形態の診断支援装置により実行される処理の概要を説明する図である。 図9は、瞳孔中心位置と角膜曲率中心位置との距離を算出する算出処理を説明するための図である。 図10は、本実施形態の算出処理の一例を示すフローチャートである。 図11は、事前に求めた距離を使用して角膜曲率中心の位置を算出する方法を示した図である。 図12は、本実施形態の視線検出処理の一例を示すフローチャートである。 図13は、変形例の算出処理を説明するための図である。 図14は、変形例の算出処理の一例を示すフローチャートである。 図15は、状況情報表示処理の一例を示すフローチャートである。 図16は、座標値の取得状況の一例を示す図である。 図17は、状況情報の表示例を示す図である。 図18は、注視点が検出されていないことを示す状況情報の表示例を示す図である。 図19は、表示部の変形例を示す図である。 図20は、座標値の取得状況の一例を示す図である。 図21は、座標値の取得状況の一例を示す図である。 図22は、右カメラ画像中の左目の瞳孔の様子を模式的に示す図である。 図23は、右カメラ画像中の左目の瞳孔の様子を模式的に示す図である。 図24は、右カメラ画像中の左目の瞳孔の様子を模式的に示す図である。
以下に、本発明にかかる視線検出装置および視線検出方法の実施形態を図面に基づいて詳細に説明する。なお、この実施形態によりこの発明が限定されるものではない。また、以下では、視線検出結果を用いて発達障がいなどの診断を支援する診断支援装置に視線検出装置を用いた例を説明する。適用可能な装置は診断支援装置に限られるものではない。
上記のように、一般的に行われている注視点検出では、個人差および環境等の影響により、常に注視点が取得可能な状態であるとは限らない。本実施形態の診断支援装置は、モニタ画面に対する被験者の注視点を検出する装置であって、被験者に見せるモニタの画面の一部に、注視点の検出状況を示す情報(状況情報)を被験者に気付かれにくい形状で表示する。これにより、第三者がリアルタイムに被験者の注視点の検出状況を把握することが可能になり、注視点測定全体の効率を向上させることができる。
また、本実施形態の視線検出装置(診断支援装置)は、2ヵ所に設置された照明部を用いて視線を検出する。また、本実施形態の視線検出装置(診断支援装置)は、視線検出前に被験者に1点を注視させて測定した結果を用いて、角膜曲率中心位置を高精度に算出する。
なお、照明部とは、光源を含み、被験者の眼球に光を照射可能な要素である。光源とは、例えばLED(Light Emitting Diode)などの光を発生する素子である。光源は、1個のLEDから構成されてもよいし、複数のLEDを組み合わせて1ヵ所に配置することにより構成されてもよい。以下では、このように照明部を表す用語として「光源」を用いる場合がある。
視点検出を精度よく行うためには、瞳孔位置を正しく検出できることが重要となっている。近赤外の光源を点灯させカメラで撮影した場合、カメラと光源の距離が一定以上離れていると、瞳孔は他の部分より暗くなることがわかっている。この特徴を用いて瞳孔位置が検出される。
本実施形態では、2台のカメラに対して、光源をそれぞれのカメラの外側に2ヶ所配置する。そして、これらの2つの光源を相互に異なるタイミングで点灯させ、点灯している光源からの距離が長い方(遠い方)のカメラで撮影する。これにより、瞳孔をより暗く撮影し、瞳孔と他の部分とを、より高精度に区別することが可能となる。
この場合、点灯させる光源が異なるため、通常のステレオ方式による三次元計測を単純に適用することができない。すなわち、視点を求める際の光源と角膜反射を結ぶ直線を世界座標で算出することができない。そこで本実施形態では、2つのタイミングでの、撮像に用いるカメラ相互の位置関係、および、点灯させる光源相互の位置関係を、仮想的な光源の位置(仮想光源位置)に対してそれぞれ対称とする。そして、2つの光源それぞれの点灯時に得られる2つの座標値を、左カメラによる座標値および右カメラによる座標値として世界座標に変換する。これにより、2つの光源それぞれの点灯時に得られる角膜反射位置を用いて、仮想光源と角膜反射を結ぶ直線を世界座標で算出すること、および、この直線に基づき視点を算出することが可能となる。
図1は、1つの光源を使用した場合の被験者の目11の様子を示す図である。図1に示すように、虹彩12と瞳孔13との暗さの差が十分ではなく、区別が困難となる。図2は、2つの光源を使用した場合の被験者の目21の様子を示す図である。図2に示すように、虹彩22と瞳孔23との暗さの差は、図1と比較して大きくなっている。
図3および4は、本実施形態の表示部、ステレオカメラ、赤外線光源および被験者の配置の一例を示す図である。
図3に示すように、本実施形態の診断支援装置は、表示部101と、ステレオカメラを構成する右カメラ102a、左カメラ102bと、LED光源103a、103bと、を含む。右カメラ102a、左カメラ102bは、表示部101の下に配置される。LED光源103a、103bは、右カメラ102a、左カメラ102bそれぞれの外側の位置に配置される。LED光源103a、103bは、例えば波長850nmの近赤外線を照射する光源である。図3では、9個のLEDによりLED光源103a、103b(照明部)を構成する例が示されている。なお、右カメラ102a、左カメラ102bは、波長850nmの近赤外光を透過できるレンズを使用する。なお、LED光源103a、103bと、右カメラ102a、左カメラ102bとの位置を逆にして、LED光源103a、103bを、右カメラ102a、左カメラ102bそれぞれの内側の位置に配置されていてもよい。
図4に示すように、LED光源103a、103bは、被験者の眼球111に向かって近赤外光を照射する。LED光源103aを照射したときに左カメラ102bで撮影を行い、LED光源103bを照射したときに右カメラ102aで撮影を行う。右カメラ102aおよび左カメラ102bと、LED光源103a、103bとの位置関係を適切に設定することにより、撮影される画像では、瞳孔112が低輝度で反射して暗くなり、眼球111内に虚像として生じる角膜反射113が高輝度で反射して明るくなる。従って、瞳孔112および角膜反射113の画像上の位置を2台のカメラ(右カメラ102a、左カメラ102b)それぞれで取得することができる。
さらに2台のカメラにより得られる瞳孔112および角膜反射113の位置から、瞳孔112および角膜反射113の位置の三次元世界座標値を算出する。本実施形態では、三次元世界座標として、表示部101の画面の中央位置を原点として、上下をY座標(上が+)、横をX座標(向かって右が+)、奥行きをZ座標(手前が+)としている。
図5は、診断支援装置100の機能の概要を示す図である。図5では、図3および4に示した構成の一部と、この構成の駆動などに用いられる構成を示している。図5に示すように、診断支援装置100は、右カメラ102aと、左カメラ102bと、左カメラ102b用のLED光源103aと、右カメラ102a用のLED光源103bと、スピーカ205と、駆動・IF(interface)部313と、制御部300と、記憶部150と、表示部101と、を含む。図5において、表示画面201は、右カメラ102aおよび左カメラ102bとの位置関係を分かりやすく示しているが、表示画面201は表示部101において表示される画面である。なお、駆動部とIF部は一体でもよいし、別体でもよい。
スピーカ205は、キャリブレーション時などに、被験者に注意を促すための音声などを出力する音声出力部として機能する。
駆動・IF部313は、ステレオカメラに含まれる各部を駆動する。また、駆動・IF部313は、ステレオカメラに含まれる各部と、制御部300とのインタフェースとなる。
制御部300は、例えば、CPU(Central Processing Unit)などの制御装置と、ROM(Read Only Memory)やRAM(Random Access Memory)などの記憶装置と、ネットワークに接続して通信を行う通信I/Fと、各部を接続するバスを備えているコンピュータなどにより実現できる。
記憶部150は、制御プログラム、測定結果、診断支援結果など各種情報を記憶する。記憶部150は、例えば、表示部101に表示する画像等を記憶する。表示部101は、診断のための対象画像等、各種情報を表示する。
図6は、図5に示す各部の詳細な機能の一例を示すブロック図である。図6に示すように、制御部300には、表示部101と、駆動・IF部313が接続される。駆動・IF部313は、カメラIF314、315と、LED駆動制御部316と、スピーカ駆動部322と、を備える。
駆動・IF部313には、カメラIF314、315を介して、それぞれ、右カメラ102a、左カメラ102bが接続される。駆動・IF部313がこれらのカメラを駆動することにより、被験者を撮像する。右カメラ102aからはフレーム同期信号が出力される。フレーム同期信号は、左カメラ102bとLED駆動制御部316とに入力される。これにより、LED光源103a、103bを発光させ、それに対応して左右カメラによる画像を取り込んでいる。
スピーカ駆動部322は、スピーカ205を駆動する。なお、診断支援装置100が、印刷部としてのプリンタと接続するためのインタフェース(プリンタIF)を備えてもよい。また、プリンタを診断支援装置100の内部に備えるように構成してもよい。
制御部300は、診断支援装置100全体を制御する。制御部300は、点灯制御部351と、位置検出部352と、曲率中心算出部353と、視線検出部354と、視点検出部355と、出力制御部356と、評価部357と、判定部358と、を備えている。なお、視線検出装置としては、少なくとも点灯制御部351、位置検出部352、曲率中心算出部353、視線検出部354、および、判定部358が備えられていればよい。
制御部300に含まれる各要素(点灯制御部351、位置検出部352、曲率中心算出部353、視線検出部354、視点検出部355、出力制御部356、評価部357、および、判定部358)は、ソフトウェア(プログラム)で実現してもよいし、ハードウェア回路で実現してもよいし、ソフトウェアとハードウェア回路とを併用して実現してもよい。
プログラムで実現する場合、当該プログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM(Compact Disk Read Only Memory)、フレキシブルディスク(FD)、CD−R(Compact Disk Recordable)、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録されてコンピュータプログラムプロダクトとして提供される。プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、プログラムをインターネット等のネットワーク経由で提供または配布するように構成してもよい。また、プログラムを、ROM等に予め組み込んで提供するように構成してもよい。
点灯制御部351は、LED駆動制御部316を用いて、LED光源103a、103bの点灯を制御する。例えば点灯制御部351は、LED光源103a、103bを、相互に異なるタイミングで点灯するように制御する。タイミングの差(時間)は、例えば、被験者の視線の移動等による視線検出結果への影響が生じない時間として予め定められた時間とすればよい。
位置検出部352は、ステレオカメラにより撮像された眼球の画像から、瞳孔を示す瞳孔領域(第1領域)、および、角膜反射を示す角膜反射領域(第2領域)を検出する。また位置検出部352は、瞳孔領域に基づき、瞳孔の中心を示す瞳孔中心の位置(第1位置)を算出する。例えば位置検出部352は、瞳孔領域の輪郭上の複数の点を選択し、選択した複数の点を通る円の中心を、瞳孔中心の位置として算出する。同様にして位置検出部352は、角膜反射領域に基づき、角膜反射の中心を示す角膜反射中心の位置(第2位置)を算出する。位置検出部352が、被験者の眼球の画像から瞳孔を示す第1領域と、角膜反射を示す第2領域と、を検出する検出部に相当する。
判定部358は、瞳孔領域および角膜反射領域のうち少なくとも一方の検出状況を判定する。例えば判定部358は、各領域の輝度、および、各領域の面積などに基づいて、各領域が正常に検出できているかを判定する。判定部358が、瞳孔領域の真円度に基づいて、瞳孔領域が正常に検出できているかを判定してもよい。
なお、判定部358は、瞳孔領域および角膜反射領域のうちいずれか一方の検出状況を判定するように構成してもよい。例えば、瞳孔領域の検出の精度が高く瞳孔領域の検出状況を考慮する必要がないような場合であれば、判定部358が角膜反射領域の検出状況のみを判定してもよい。このような場合、出力制御部356は、判定部358により判定された領域の検出状況を示す状況情報を表示部101に表示させればよい。
曲率中心算出部353は、仮想光源位置と角膜反射中心とを結ぶ直線(第1直線)から、角膜曲率中心(第4位置)を算出する。例えば、曲率中心算出部353は、この直線上で、角膜反射中心からの距離が所定値となる位置を、角膜曲率中心として算出する。所定値は、一般的な角膜の曲率半径値などから事前に定められた値を用いることができる。
角膜の曲率半径値には個人差が生じうるため、事前に定められた値を用いて角膜曲率中心を算出すると誤差が大きくなる可能性がある。従って、曲率中心算出部353が、個人差を考慮して角膜曲率中心を算出してもよい。この場合、曲率中心算出部353は、まず目標位置(第3位置)を被験者に注視させたときに算出された瞳孔中心および角膜反射中心を用いて、瞳孔中心と目標位置とを結ぶ直線(第2直線)と、角膜反射中心と仮想光源位置とを結ぶ直線(第1直線)と、の交点を算出する。そして曲率中心算出部353は、瞳孔中心と算出した交点との距離(第1距離)を算出し、例えば記憶部150に記憶する。
目標位置は、予め定められ、三次元世界座標値が算出できる位置であればよい。例えば、表示画面201の中央位置(三次元世界座標の原点)を目標位置とすることができる。この場合、例えば出力制御部356が、表示画面201上の目標位置(中央)に、被験者に注視させる画像(目標画像)等を表示する。これにより、被験者に目標位置を注視させることができる。
目標画像は、被験者を注目させることができる画像であればどのような画像であってもよい。例えば、輝度や色などの表示態様が変化する画像、および、表示態様が他の領域と異なる画像などを目標画像として用いることができる。
なお、目標位置は表示画面201の中央に限られるものではなく、任意の位置でよい。表示画面201の中央を目標位置とすれば、表示画面201の任意の端部との距離が最小になる。このため、例えば視線検出時の測定誤差をより小さくすることが可能となる。
距離の算出までの処理は、例えば実際の視線検出を開始するまでに事前に実行しておく。実際の視線検出時には、曲率中心算出部353は、仮想光源位置と角膜反射中心とを結ぶ直線上で、瞳孔中心からの距離が、事前に算出した距離となる位置を、角膜曲率中心として算出する。曲率中心算出部353が、仮想光源位置と、表示部上の目標画像を示す所定の位置(第3位置)と、瞳孔中心の位置と、角膜反射中心の位置と、から角膜曲率中心(第4位置)を算出する算出部に相当する。
視線検出部354は、瞳孔中心と角膜曲率中心とから被験者の視線を検出する。例えば視線検出部354は、角膜曲率中心から瞳孔中心へ向かう方向を被験者の視線方向として検出する。
視点検出部355は、検出された視線方向を用いて被験者の視点を検出する。視点検出部355は、例えば、表示画面201で被験者が注視する点である視点(注視点)を検出する。視点検出部355は、例えば図2のような三次元世界座標系で表される視線ベクトルとXY平面との交点を、被験者の注視点として検出する。
出力制御部356は、表示部101およびスピーカ205などに対する各種情報の出力を制御する。例えば、出力制御部356は、表示部101上の目標位置に目標画像を出力させる。また、出力制御部356は、診断画像、および、評価部357による評価結果などの表示部101に対する出力を制御する。
診断画像は、視線(視点)検出結果に基づく評価処理に応じた画像であればよい。例えば発達障がいを診断する場合であれば、発達障がいの被験者が好む画像(幾何学模様映像など)と、それ以外の画像(人物映像など)と、を含む診断画像を用いてもよい。
また出力制御部356は、瞳孔領域および角膜反射領域のうち少なくとも一方の検出状況を示す状況情報(インジケータ)を表示部101に表示させる。状況情報の表示方法の詳細は後述する。
評価部357は、診断画像と、視点検出部355により検出された注視点とに基づく評価処理を行う。例えば発達障がいを診断する場合であれば、評価部357は、診断画像と注視点とを解析し、発達障がいの被験者が好む画像を注視したか否かを評価する。
図7は、1つの光源を用いると仮定した場合の処理の概要を説明する図である。図3〜図6で説明した要素については同一の符号を付し説明を省略する。図7の例では、2つのLED光源103a、103bの代わりに、1つのLED光源203が用いられる。
瞳孔中心407および角膜反射中心408は、それぞれ、1つのLED光源203を点灯させた際に検出される瞳孔の中心、および、角膜反射点の中心を表している。角膜曲率半径409は、角膜表面から角膜曲率中心410までの距離を表す。LED光源203は、ここでは1個のLEDとしているが、数個の小さいLEDを組み合わせて1ヵ所に配置されたものであっても構わない。
図8は、本実施形態の診断支援装置100により実行される処理の概要を説明する図である。図3〜図6で説明した要素については同一の符号を付し説明を省略する。
角膜反射点621は左カメラ102bで撮影したときの画像上の角膜反射点を表す。角膜反射点622は右カメラ102aで撮影したときの画像上の角膜反射点を表す。本実施形態では、右カメラ102aと右カメラ用のLED光源103b、および、左カメラ102bと左カメラ用のLED光源103aは、例えば右カメラ102aと左カメラ102bの中間位置を通る直線に対して左右対称の位置関係にある。このため、右カメラ102aと左カメラ102bの中間位置(仮想光源位置)に仮想光源303があるとみなすことができる。角膜反射点624は、仮想光源303に対応する角膜反射点を表す。角膜反射点621の座標値と角膜反射点622の座標値を、左右カメラの座標値を三次元世界座標に変換する変換パラメータを用いて変換することにより、角膜反射点624の世界座標値が算出できる。仮想光源303と角膜反射点624を結ぶ直線523上に角膜の曲率中心505が存在する。従って、図7で表した光源が1ヵ所の視線検出方法と同等の方法で視点検出が可能である。
なお右カメラ102aと左カメラ102bとの位置関係、および、LED光源103aとLED光源103bとの位置関係は、上述の位置関係に限られるものではない。例えば同一の直線に対して、それぞれの位置関係が左右対称となる関係であってもよいし、右カメラ102aと左カメラ102bと、LED光源103aとLED光源103bとは同一直線上になくてもよい。
図9は、視点検出(視線検出)を行う前に、角膜曲率中心位置と、瞳孔中心位置と角膜曲率中心位置との距離を算出する算出処理を説明するための図である。図3〜図6で説明した要素については同一の符号を付し説明を省略する。
目標位置605は、表示部101上の一点に目標画像等を出して、被験者に見つめさせるための位置である。本実施形態では表示部101の画面の中央位置としている。直線613は、仮想光源303と角膜反射中心612とを結ぶ直線である。直線614は、被験者が見つめる目標位置605(注視点)と瞳孔中心611とを結ぶ直線である。角膜曲率中心615は、直線613と直線614との交点である。曲率中心算出部353は、瞳孔中心611と角膜曲率中心615との距離616を算出して記憶しておく。
図10は、本実施形態の算出処理の一例を示すフローチャートである。
まず出力制御部356は、表示部101の画面上の1点に目標画像を再生し(ステップS101)、被験者にその1点を注視させる。次に、点灯制御部351は、LED駆動制御部316を用いてLED光源103a、103bのうち一方を被験者の目に向けて点灯させる(ステップS102)。制御部300は、左右カメラ(右カメラ102a、左カメラ102b)のうち点灯したLED光源からの距離が長い方のカメラで被験者の目を撮像する(ステップS103)。次に、点灯制御部351は、LED光源103a、103bのうち他方を被験者の目に向けて点灯させる(ステップS104)。制御部300は、左右カメラのうち点灯したLED光源からの距離が長い方のカメラで被験者の目を撮像する(ステップS105)。
なお、点灯したLED光源からの距離が長いカメラ以外のカメラによる撮像を停止しなくてもよい。すなわち、少なくとも点灯したLED光源からの距離が長い方のカメラで被験者の目を撮像し、撮像した画像が座標算出等に利用可能となっていればよい。
LED光源103aまたはLED光源103bの照射により、瞳孔部分(瞳孔領域)は暗い部分(暗瞳孔)として検出される。またLED照射の反射として、角膜反射の虚像が発生し、明るい部分として角膜反射点(角膜反射中心)が検出される。すなわち、位置検出部352は、撮像された画像から瞳孔部分を検出し、瞳孔中心の位置を示す座標を算出する。位置検出部352は、例えば目を含む一定領域の中で最も暗い部分を含む所定の明るさ以下の領域を瞳孔部分として検出し、最も明るい部分を含む所定の明るさ以上の領域を角膜反射として検出する。また、位置検出部352は、撮像された画像から角膜反射部分(角膜反射領域)を検出し、角膜反射中心の位置を示す座標を算出する。なお、位置検出部352は、左右カメラで取得した2つの画像それぞれに対して、各座標値を算出する(ステップS106)。
なお、左右カメラは、三次元世界座標を取得するために、事前にステレオ較正法によるカメラ較正が行われており、変換パラメータが算出されている。ステレオ較正法は、Tsaiのカメラキャリブレーション理論を用いた方法など従来から用いられているあらゆる方法を適用できる。
位置検出部352は、この変換パラメータを使用して、左右カメラの座標から、瞳孔中心と角膜反射中心の三次元世界座標に変換を行う(ステップS107)。例えば位置検出部352は、LED光源103aが点灯されたときに左カメラ102bにより撮像された画像から得られた座標を左カメラの座標とし、LED光源103bが点灯されたときに右カメラ102aにより撮像された画像から得られた座標を右カメラの座標として、変換パラメータを用いて三次元世界座標への変換を行う。この結果得られる世界座標値は、仮想光源303から光が照射されたと仮定したときに左右カメラで撮像された画像から得られる世界座標値に対応する。曲率中心算出部353は、求めた角膜反射中心の世界座標と、仮想光源303の中心位置の世界座標とを結ぶ直線を求める(ステップS108)。次に、曲率中心算出部353は、表示部101の画面上の1点に表示される目標画像の中心の世界座標と、瞳孔中心の世界座標とを結ぶ直線を算出する(ステップS109)。曲率中心算出部353は、ステップS108で算出した直線とステップS109で算出した直線との交点を求め、この交点を角膜曲率中心とする(ステップS110)。曲率中心算出部353は、このときの瞳孔中心と角膜曲率中心との間の距離を算出して記憶部150などに記憶する(ステップS111)。記憶された距離は、その後の視点(視線)検出時に、角膜曲率中心を算出するために使用される。
算出処理で表示部101上の1点を見つめる際の瞳孔中心と角膜曲率中心との間の距離は、表示部101内の視点を検出する範囲で一定に保たれている。瞳孔中心と角膜曲率中心との間の距離は、目標画像を再生中に算出された値全体の平均から求めてもよいし、再生中に算出された値のうち何回かの値の平均から求めてもよい。
図11は、視点検出を行う際に、事前に求めた瞳孔中心と角膜曲率中心との距離を使用して、補正された角膜曲率中心の位置を算出する方法を示した図である。注視点805は、一般的な曲率半径値を用いて算出した角膜曲率中心から求めた注視点を表す。注視点806は、事前に求めた距離を用いて算出した角膜曲率中心から求めた注視点を表す。
瞳孔中心811および角膜反射中心812は、それぞれ、視点検出時に算出された瞳孔中心の位置、および、角膜反射中心の位置を示す。直線813は、仮想光源303と角膜反射中心812とを結ぶ直線である。角膜曲率中心814は、一般的な曲率半径値から算出した角膜曲率中心の位置である。距離815は、事前の算出処理により算出した瞳孔中心と角膜曲率中心との距離である。角膜曲率中心816は、事前に求めた距離を用いて算出した角膜曲率中心の位置である。角膜曲率中心816は、角膜曲率中心が直線813上に存在すること、および、瞳孔中心と角膜曲率中心との距離が距離815であることから求められる。これにより一般的な曲率半径値を用いる場合に算出される視線817は、視線818に補正される。また、表示部101の画面上の注視点は、注視点805から注視点806に補正される。
図12は、本実施形態の視線検出処理の一例を示すフローチャートである。例えば、診断画像を用いた診断処理の中で視線を検出する処理として、図12の視線検出処理を実行することができる。診断処理では、図12の各ステップ以外に、診断画像を表示する処理、および、注視点の検出結果を用いた評価部357による評価処理などが実行される。
ステップS201〜ステップS207は、図10のステップS102〜ステップS108と同様であるため説明を省略する。
曲率中心算出部353は、ステップS207で算出した直線上であって、瞳孔中心からの距離が、事前の算出処理によって求めた距離と等しい位置を角膜曲率中心として算出する(ステップS208)。
視線検出部354は、瞳孔中心と角膜曲率中心とを結ぶベクトル(視線ベクトル)を求める(ステップS209)。このベクトルが、被験者が見ている視線方向を示している。視点検出部355は、この視線方向と表示部101の画面との交点の三次元世界座標値を算出する(ステップS210)。この値が、被験者が注視する表示部101上の1点を世界座標で表した座標値である。視点検出部355は、求めた三次元世界座標値を、表示部101の二次元座標系で表される座標値(x,y)に変換する(ステップS211)。これにより、被験者が見つめる表示部101上の視点(注視点)を算出することができる。
(変形例)
瞳孔中心位置と角膜曲率中心位置との距離を算出する算出処理は、図9および図10で説明した方法に限られるものではない。以下では、算出処理の他の例について図13および図14を用いて説明する。
図13は、本変形例の算出処理を説明するための図である。図3〜図6および図9で説明した要素については同一の符号を付し説明を省略する。
線分1101は、目標位置605と仮想光源位置とを結ぶ線分(第1線分)である。線分1102は、線分1101と平行で、瞳孔中心611と直線613とを結ぶ線分(第2線分)である。本変形例では、以下のように、線分1101、線分1102を用いて瞳孔中心611と角膜曲率中心615との距離616を算出して記憶しておく。
図14は、本変形例の算出処理の一例を示すフローチャートである。
ステップS301〜ステップS309は、図10のステップS101〜ステップS109と同様であるため説明を省略する。
曲率中心算出部353は、表示部101の画面上の1点に表示される目標画像の中心と、仮想光源位置とを結ぶ線分(図13では線分1101)を算出するとともに、算出した線分の長さ(L1101とする)を算出する(ステップS310)。
曲率中心算出部353は、瞳孔中心611を通り、ステップS310で算出した線分と平行な線分(図13では線分1102)を算出するとともに、算出した線分の長さ(L1102とする)を算出する(ステップS311)。
曲率中心算出部353は、角膜曲率中心615を頂点とし、ステップS310で算出した線分を下辺とする三角形と、角膜曲率中心615を頂点とし、ステップS311で算出した線分を下辺とする三角形とが相似関係にあることに基づき、瞳孔中心611と角膜曲率中心615との間の距離616を算出する(ステップS312)。例えば曲率中心算出部353は、線分1101の長さに対する線分1102の長さの比率と、目標位置605と角膜曲率中心615との間の距離に対する距離616の比率と、が等しくなるように、距離616を算出する。
距離616は、以下の(1)式により算出することができる。なおL614は、目標位置605から瞳孔中心611までの距離である。
距離616=(L614×L1102)/(L1101−L1102)・・・(1)
曲率中心算出部353は、算出した距離616を記憶部150などに記憶する(ステップS313)。記憶された距離は、その後の視点(視線)検出時に、角膜曲率中心を算出するために使用される。
次に、状況情報を表示する処理の詳細について説明する。図15は、状況情報表示処理の一例を示すフローチャートである。まず診断支援装置100は、例えば図12に示すフローチャートに基づいて被験者の注視点検出を行う(ステップS401)。
上述のように、個人差および環境等の影響によりすべてのカメラ座標値を常に取得することは困難である。取得するカメラ座標値は、例えば以下の座標値V1〜V8である。なお右カメラ画像は、右カメラ102aで撮像した画像を表す。また左カメラ画像は、左カメラ102bで撮像した画像を表す。
(V1)右カメラ画像中の左目の瞳孔中心の座標値
(V2)右カメラ画像中の右目の瞳孔中心の座標値
(V3)右カメラ画像中の左目の角膜反射中心の座標値
(V4)右カメラ画像中の右目の角膜反射中心の座標値
(V5)左カメラ画像中の左目の瞳孔中心の座標値
(V6)左カメラ画像中の右目の瞳孔中心の座標値
(V7)左カメラ画像中の左目の角膜反射中心の座標値
(V8)左カメラ画像中の右目の角膜反射中心の座標値
図16は、これらの座標値の取得状況の一例を示す図である。図16では、右方向が時間の経過を表す。取得状況1601〜1608は、それぞれ座標値V1〜V8の取得状況を表す。各取得状況の斜線部分は、対応する座標値が取得できた期間を表す。斜線のない空白部分は、対応する座標値が取得できなかった期間を表す。
例えば、取得状況1602に含まれる空白1611は、座標値V2が取得できなかった期間を表す。取得状況1604に含まれる空白1612は、座標値V4が取得できなかった期間を表す。取得状況1606に含まれる空白1613は、座標値V6が取得できなかった期間を表す。取得状況1608に含まれる空白1614は、座標値V8が取得できなかった期間を表す。
表示態様1620は、状況情報の表示態様の変化を示す。図16では、空白1612および空白1614に対応する期間1622と、その他の期間1621とで、異なる態様で状況情報が表示されることが示されている。
図16の例では、期間1622では、右目の注視点を計算することができない。すなわち、この期間は、注視点が検出できない期間となる。一方、期間1621は、注視点が検出できる期間となる。
図15に戻り、判定部358は、注視点が検出できたか(注視点検出OK)否か(注視点検出NG)を判定する(ステップS402)。注視点が検出できたか否かの判定処理については後述する。
注視点が検出できた場合(ステップS402:Yes)、出力制御部356は、注視点が検出されていることを示す状況情報(例えば薄緑色の正方形など)を表示部101に表示させる(ステップS403)。図16の例では、期間1621では注視点が検出できたと判定され、注視点が検出されていることを示す状況情報が表示される。
図17は、状況情報の表示例を示す図である。図17の例では、出力制御部356は、診断画像より上に状況情報1701を表示させている。これにより、状況情報1701を被験者に気付かせにくくすることができる。
図15に戻り、注視点が検出できなかった場合(ステップS402:No)、出力制御部356は、注視点が検出されていないことを示す状況情報(例えば薄赤色の正方形など)を表示部101に表示させる(ステップS404)。
図18は、注視点が検出されていないことを示す状況情報の表示例を示す図である。図18の例では、出力制御部356は、図17の状況情報1701とは異なる色の状況情報1801を表示させる。なお、出力制御部356は、注視点が検出されていない場合のみ、状況情報を表示させるように構成してもよい。
図15に戻り、出力制御部356は、測定(注視点検出)が終了したか否かを判定する(ステップS405)。終了していない場合(ステップS405:No)、ステップS401に戻り処理を繰り返す。測定が終了した場合(ステップS405:Yes)、状況情報表示処理を終了する。
上記のように出力制御部356は、被験者が気付きにくい態様で状況情報を表示させる。例えば出力制御部356は、表示部101の画面上の目立たない位置(外周部、または、四隅のいずれか、など)に状況情報を表示させる。被験者が、上方から表示部101を見下ろすような位置にいる場合は、表示部101の左上隅または右上隅に状況情報を表示させるのが望ましい。これにより、被験者に気づかれにくく、診断者がより容易に状況情報を確認可能となる。また、例えば右利きの診断者が右側から診断して、診断結果の入力等を表示部101の右側で行うような場合、表示部101の左上に状況情報を表示させてもよい。逆に左利きの診断者の場合は、表示部101の右上に状況情報を表示させてもよい。出力制御部356は、表示部101の診断画像にかからない領域、かつ、診断画像に対して上方に状況情報を表示させることが望ましい。
また状況情報の面積は、第三者が把握できる最小限の面積とする。例えば状況情報の大きさは、2〜3mm四方程度とする。診断画像に幾何学模様の画像が含まれる場合、この幾何学模様の画像より小さい大きさの状況情報を表示してもよい。これにより、例えば画面から70cm程度離れている被験者からはほとんど気付かれることがない。
状況情報の色は、目立たない単一の色(彩度の低い色など)とする。例えば目立たない赤系の色として、RGB値で(216、84、94)の色を用いることができる。また目立たない緑系の色として、RGB値で(105、160、37)の色を用いることができる。なお、これらのRGB値のHSV色空間での値はそれぞれ以下となる。
赤系:HSV(98、61、84)
緑系:HSV(23、76、62)
この例では、彩度は61%および76%である。このように、出力制御部356は、状況情報の色の彩度を最大値の60%〜70%程度としてもよい。
出力制御部356は、表示されている診断画像に応じて目立たない色を状況情報の色として選択してもよい。出力制御部356は、診断画像と見分けが付きにくくするために状況情報を半透明(例えば透明度70%)にして表示させてもよい。
次に、注視点が検出できたか否かの判定処理の詳細について説明する。上記のように、判定部358は、例えば瞳孔領域および角膜反射領域の輝度および面積を用いて、各領域が正常に検出できているかを判定する。判定部358は、右カメラ画像か左カメラ画像か、右目か左目か、および、瞳孔領域か角膜反射領域かの組み合わせ(8パターン)それぞれに対して判定処理を実行できる。上記座標値V1〜V8は、この8パターンの組み合わせのいずれかに対応する。例えば右カメラ画像中の左目の瞳孔領域が正常に検出できていることは、座標値V1が正常に取得できていることに相当する。判定処理を実行するタイミングは任意であるが、例えば各領域が検出されるごと(フレームごとなど)に実行してよい。これにより、注視点の検出状況をリアルタイムに把握可能となる。
判定部358は、例えば領域の輝度が予め定められた範囲(第1範囲)に含まれる場合、この領域が正常に検出できていると判定する。また、判定部358は、例えば領域の面積が予め定められた範囲(第2範囲)に含まれる場合、この領域が正常に検出できていると判定する。第1範囲および第2範囲は、「人の目の大きさ、および、明るさ」等の最大値と最小値を設定することにより定められる。
また例えば判定部358は、真円度が予め定められた閾値以上の場合に、瞳孔領域が検出されていると判定する。真円度を求める方法は任意であるが、例えば以下の方法を適用できる。まず判定部358は、円周上の任意の複数の点を選択し、選択した点を通る円の中心を求める。判定部358は、この処理を複数回実行し、求められた中心の「ばらつき度合い」を示す標準偏差などを真円度として算出する。真円度とは、円形形体の幾何学的に正しい円からの狂いの大きさである。
状況情報は、表示部101に表示する方法に限られるものではない。例えば表示部の側面等に装着されたLEDなどにより状況情報を表示してもよい。図19は、このように構成された表示部1901の一例を示す図である。図19に示すように、表示部1901は、側面の上部に照明部1911を備えている。照明部1911は、例えば赤および緑に点灯可能なLEDなどにより構成できる。出力制御部356は、例えば領域が検出されている場合に照明部1911を緑に点灯させ、領域が検出されていない場合に照明部1911を赤に点灯させる。
出力制御部356は、瞳孔領域の検出状況、および、角膜反射領域の検出状況の組み合わせに応じて異なる態様で状況情報を表示させてもよい。以下では上記の座標値V1〜V8のうち検出できた座標値の個数に応じて状況情報の色を決定する例を示す。
図20は、この例での座標値の取得状況の一例を示す図である。図20では、右方向が時間の経過を表す。取得状況2001〜2008は、それぞれ座標値V1〜V8の取得状況を表す。各取得状況の斜線部分は、対応する座標値が取得できた期間を表す。斜線のない空白部分は、対応する座標値が取得できなかった期間を表す。
例えば、取得状況2003に含まれる空白2011は、座標値V3が取得できなかった期間を表す。取得状況2004に含まれる空白2012は、座標値V4が取得できなかった期間を表す。取得状況2007に含まれる空白2013は、座標値V7が取得できなかった期間を表す。取得状況2008に含まれる空白2014は、座標値V8が取得できなかった期間を表す。
表示態様2021は、状況情報の表示態様の変化を示す。図20では、期間2022〜2024、期間2025、および、残りの期間で、それぞれ異なる態様で状況情報が表示されることが示されている。
例えば残りの期間では、すべての座標値が取得できているため、出力制御部356は状況情報を水色に設定する。
期間2022では、座標値V3(左目角膜反射中心座標)のみ検出不可となり、角膜反射中心座標値の取得数は3つに減少する。このため出力制御部356は、状況情報を黄色に変更する。また、期間2023、2024でも同様に角膜反射中心座標値の取得数は3つなので、出力制御部356は、状況情報を黄色に設定する。一方、期間2025では、座標値V7、V8(左カメラの右目および左目の角膜反射座標値)が検出不可となり、角膜反射中心座標値の取得数は2つに減少する。このため出力制御部356は、状況情報を赤色に変更する。
瞳孔中心座標値の取得数についても角膜反射と同じ考え方で、取得数に応じて状況情報の色を変化させることができる。また、瞳孔と角膜反射の組み合わせ、左右の目の組み合わせ、左右カメラの組み合わせなども同様である。
判定部358が、瞳孔領域または角膜反射の検出状況を段階的に判定し、出力制御部356が、段階的な判定結果に応じて異なる態様で状況情報を表示させてもよい。以下では、瞳孔領域の検出状況を段階的に評価する方法について説明する。
図21は、この例での座標値の取得状況の一例を示す図である。図21は、瞳孔中心座標値が取得できている場合でも、瞳孔検出の精度に応じて状況情報の表示態様を変更する例を示す。図21では、右方向が時間の経過を表す。取得状況2101〜2108は、それぞれ座標値V1〜V8の取得状況を表す。図21に示すように、座標値V1〜V8は正常に取得できている。
表示態様2121は、状況情報の表示態様の変化を示す。図21では、期間2122、期間2123、および、期間2124で、それぞれ異なる態様で状況情報が表示されることが示されている。
図22〜図24は、右カメラ画像中の左目の瞳孔(取得状況2101に対応)の様子を模式的に示す図である。
図24は、図21の期間2122における瞳孔の様子を示す。図22は、図21の期間2123における瞳孔の様子を示す。図23は、図21の期間2124における瞳孔の様子を示す。
判定部358は、瞳孔領域の検出状況を段階的に評価する評価値(瞳孔検出の精度を示す値)として、瞳孔領域の輪郭と瞳孔領域の輪郭の近似円とが重複する度合い(瞳孔領域と近似円との間で一致するピクセルの個数の割合など)を用いることができる。この評価値は真円度として用いることもできる。図22〜図24では、瞳孔輪郭2201と近似円2202、瞳孔輪郭2301と近似円2302、および、瞳孔輪郭2401と近似円2402が、それぞれ比較される。図22〜図24では、瞳孔領域の輪郭の円周と瞳孔領域の輪郭の近似円の円周との重なりによって判断しているが、瞳孔領域の輪郭の円周に限らず、瞳孔領域の輪郭の円の面積の重なりによって判断してもよい。
図22〜図24の例では、図24が最も良い状態(一致するピクセル数の割合が大きい)であり、図22が中程度の状態であり、図23が悪い状態である。
従って、図21の期間2122では瞳孔取得の状況が最も良い状態のため、状況情報は例えば水色に設定される。図21の期間2123では瞳孔取得の状況が1段階悪化している状態のため、状況情報は例えば黄色に設定される。図21の期間2124では瞳孔取得の状況が3段階の中で最も悪化している状態のため、状況情報は例えば赤色に設定される。
各段階のいずれに属するかは、例えば予め定められた2つの閾値を用いて判定してもよい。評価する段階を2段階に設定した場合は、1つの閾値を用いて判定すればよい。また、評価段階を無限に設定し、評価値の値に応じて状況情報の色を連続的に変化させてもよい。
段階的に評価する方法は上記に限られるものではない。例えば、領域の輝度で判定する場合、判定に用いる範囲を複数設定し、輝度が含まれる範囲によって領域の検出状況を段階的に評価してもよい。同様に、領域の面積についても判定に用いる範囲を複数設定してもよい。
以上のように、本実施形態によれば、例えば以下のような効果が得られる。
(1)被験者に表示部を注視させた状態でも、被験者に気付かれることなく、第三者が被験者の注視点の検出状況を確認することが可能となる。
(2)2つの光源のうち、2台のカメラからそれぞれ遠い光源を点灯させたときの画像を撮影し使用することにより、瞳孔だけをより暗く撮影でき、瞳孔検出精度、および視線検出精度を向上させることができる。
(3)それぞれカメラから遠い1つの光源を使用するため、従来の方法に比べ2つの光源の位置を離す必要がなくコンパクトにすることが可能である。
100 診断支援装置
101 表示部
102a 右カメラ
102b 左カメラ
103a、103b LED光源
150 記憶部
201 表示画面
205 スピーカ
300 制御部
313 駆動・IF部
316 LED駆動制御部
322 スピーカ駆動部
351 点灯制御部
352 位置検出部
353 曲率中心算出部
354 視線検出部
355 視点検出部
356 出力制御部
357 評価部
358 判定部

Claims (3)

  1. 被験者の眼球の画像から瞳孔を示す第1領域と、角膜反射を示す第2領域と、を検出し、前記第1領域における瞳孔中心と前記第2領域における角膜反射中心とを算出する検出部と、
    曲率中心算出部により前記角膜反射中心と仮想光源位置とから角膜曲率中心を算出し、視線検出部により前記瞳孔中心と前記角膜曲率中心とから視線方向を検出し、視点検出部により前記視線方向から注視点を検出する場合において、前記第1領域および前記第2領域の検出状況を判定するとともに、前記第1領域および前記第2領域検出できなかった場合に、注視点が検出できなかったと判定する判定部と、
    前記判定部で注視点が検出できなかった場合に、注視点が検出できなかったことを示す情報を表示部に表示させる出力制御部と、
    を備える、
    視線検出装置。
  2. 前記判定部は、前記第1領域および前記第2領域の輝度または面積が予め定められた範囲に含まれない場合、注視点が検出できなかったと判定し、
    前記判定部は、前記第1領域の真円度が予め定められた閾値以下の場合、前記第1領域が検出できなかったと判定する、
    請求項1に記載の視線検出装置。
  3. 被験者の眼球の画像から瞳孔を示す第1領域と、角膜反射を示す第2領域と、を検出し、前記第1領域における瞳孔中心と前記第2領域における角膜反射中心とを算出する検出ステップと、
    前記角膜反射中心と仮想光源位置とから角膜曲率中心を算出し、前記瞳孔中心と前記角膜曲率中心とから視線方向を検出し、前記視線方向から注視点を検出する場合において、前記第1領域および前記第2領域の検出状況を判定するとともに、前記第1領域および前記第2領域検出できなかった場合に、注視点が検出できなかったと判定する判定ステップと、
    前記判定ステップで注視点が検出できなかった場合に、注視点が検出できなかったことを示す情報を表示部に表示させる出力制御ステップと、
    を含む、
    視線検出方法。
JP2015035633A 2015-02-25 2015-02-25 視線検出装置および視線検出方法 Active JP6471533B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015035633A JP6471533B2 (ja) 2015-02-25 2015-02-25 視線検出装置および視線検出方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015035633A JP6471533B2 (ja) 2015-02-25 2015-02-25 視線検出装置および視線検出方法

Publications (2)

Publication Number Publication Date
JP2016157325A JP2016157325A (ja) 2016-09-01
JP6471533B2 true JP6471533B2 (ja) 2019-02-20

Family

ID=56826142

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015035633A Active JP6471533B2 (ja) 2015-02-25 2015-02-25 視線検出装置および視線検出方法

Country Status (1)

Country Link
JP (1) JP6471533B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102099223B1 (ko) 2017-11-28 2020-04-09 전남대학교산학협력단 사시 진단 시스템 및 방법, 시선 영상 획득 시스템, 컴퓨터 프로그램

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07289517A (ja) * 1994-04-28 1995-11-07 Canon Inc 視線検出装置およびそれを備えた光学機器
JP5926210B2 (ja) * 2012-03-21 2016-05-25 国立大学法人浜松医科大学 自閉症診断支援システム及び自閉症診断支援装置
JP6019684B2 (ja) * 2012-04-09 2016-11-02 株式会社Jvcケンウッド 診断支援装置および診断支援方法

Also Published As

Publication number Publication date
JP2016157325A (ja) 2016-09-01

Similar Documents

Publication Publication Date Title
US10722113B2 (en) Gaze detection apparatus and gaze detection method
US10117569B2 (en) Diagnosis supporting device and diagnosis supporting method
JP6201956B2 (ja) 視線検出装置および視線検出方法
US11023039B2 (en) Visual line detection apparatus and visual line detection method
JP2015126857A (ja) 視線検出支援装置および視線検出支援方法
JP2016028669A (ja) 瞳孔検出装置、および瞳孔検出方法
JP6245093B2 (ja) 診断支援装置および診断支援方法
JP6593133B2 (ja) 診断支援装置および診断支援方法
JP2020038734A (ja) 視線検出装置及び視線検出方法
JP6380178B2 (ja) 診断支援装置および診断支援方法
JP6135550B2 (ja) 診断支援装置および診断支援方法
JP6471533B2 (ja) 視線検出装置および視線検出方法
JP6327171B2 (ja) 注視点検出装置および注視点検出方法
JP2016157326A (ja) 視線検出装置および視線検出方法
JP6693149B2 (ja) 瞳孔検出装置、および瞳孔検出方法
JP6142824B2 (ja) 診断支援装置および診断支援方法
JP6187347B2 (ja) 検出装置および検出方法
JP6269177B2 (ja) 瞳孔検出装置、視線検出装置および瞳孔検出方法
JP6909391B2 (ja) 視線検出装置及び視線検出方法
JP2015181797A (ja) 検出装置および検出方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170330

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180313

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180508

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181009

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181225

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190107

R150 Certificate of patent or registration of utility model

Ref document number: 6471533

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150