JP6840652B2 - Image processing equipment, image processing method and image processing program - Google Patents
Image processing equipment, image processing method and image processing program Download PDFInfo
- Publication number
- JP6840652B2 JP6840652B2 JP2017220380A JP2017220380A JP6840652B2 JP 6840652 B2 JP6840652 B2 JP 6840652B2 JP 2017220380 A JP2017220380 A JP 2017220380A JP 2017220380 A JP2017220380 A JP 2017220380A JP 6840652 B2 JP6840652 B2 JP 6840652B2
- Authority
- JP
- Japan
- Prior art keywords
- palm
- image
- unit
- living body
- angle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Description
本発明は、画像処理装置、画像処理方法および画像処理プログラムに関する。 The present invention relates to an image processing apparatus, an image processing method, and an image processing program.
例えば、生体認証装置において、生体の手のひらの撮像画像を取得する際、生体認証装置に対する手のひらの高さを計測する技術がある(例えば特許文献1参照)。また、生体認証装置において、生体認証装置に対する手のひらの高さを判定し、高さが所定以内である場合に、手のひらの撮像画像を取得する技術がある(例えば特許文献2参照)。 For example, in a biometric authentication device, there is a technique for measuring the height of the palm with respect to the biometric authentication device when acquiring an image of the palm of a living body (see, for example, Patent Document 1). Further, in the biometric authentication device, there is a technique of determining the height of the palm with respect to the biometric authentication device and acquiring an image of the palm when the height is within a predetermined range (see, for example, Patent Document 2).
上述の従来技術では、生体認証装置によって、手のひら全体が撮像されることを前提としている。そして、生体認証装置は、撮像画像に含まれる手の両端、指、手首などを手がかりに手のひらの外郭を特定することで、撮像画像において、背景から手のひら全体の画像を切り出す処理を行う。生体認証装置は、このようにして撮像画像から切り出された手のひら全体の画像をもとに、後段の各種処理を行う。 In the above-mentioned prior art, it is premised that the entire palm is imaged by the biometric authentication device. Then, the biometric authentication device identifies the outer shape of the palm by using both ends of the hand, fingers, wrists, etc. included in the captured image as clues, and performs a process of cutting out an image of the entire palm from the background in the captured image. The biometric authentication device performs various processing in the subsequent stage based on the image of the entire palm cut out from the captured image in this way.
ここで、近年、生体認証装置に用いられる撮像素子の小型化が進み、生体認証装置のサイズが小さくなってきている。撮像対象が手のひらである場合、手のひらは、生体認証装置に対して一定以上の距離から撮影されることで、手のひら全体が撮像されることになる。生体認証装置に用いられる撮像素子のサイズがある程度の大きさであれば、生体認証装置に対する手のひらの距離が近距離であったとしても、手のひら全体が撮像される。 Here, in recent years, the size of the image pickup device used in the biometric authentication device has been miniaturized, and the size of the biometric authentication device has been reduced. When the imaging target is the palm, the entire palm is imaged by photographing the palm from a certain distance or more with respect to the biometric authentication device. If the size of the image sensor used in the biometric authentication device is a certain size, the entire palm is imaged even if the distance of the palm to the biometric authentication device is short.
しかし、生体認証装置に用いられる撮像素子のサイズが小さいと、生体認証装置に対する手のひらの距離が近距離である場合、手のひらが部分的に撮像されることになる。すなわち、従来技術では、近距離で撮像された手のひらの撮像画像、例えば手のひらの左右両端、指、手首のいずれか、または、これらの全てが含まれない撮像画像からは、手のひら全体ではなく手のひらの部分しか取り出せないため、手のひらの方向を算出する際の精度が低下するという問題がある。手のひらの方向を算出する際の精度が低下すると、後段の各種処理で不都合が生じる。 However, if the size of the image sensor used in the biometric authentication device is small, the palm is partially imaged when the distance of the palm to the biometric authentication device is short. That is, in the prior art, the captured image of the palm captured at a short distance, for example, the left and right ends of the palm, the fingers, the wrist, or an image that does not include all of these, is not the entire palm but the palm. Since only a part can be taken out, there is a problem that the accuracy when calculating the direction of the palm is lowered. If the accuracy of calculating the direction of the palm is reduced, inconvenience will occur in various processes in the subsequent stage.
本願の開示技術は、上記に鑑みてなされたものであって、例えば、生体部分の撮像画像から生体部分の方向を算出する際の精度低下を抑制する画像処理装置、画像処理方法および画像処理プログラムを提供することを目的とする。 The disclosed technology of the present application has been made in view of the above, and is, for example, an image processing device, an image processing method, and an image processing program that suppresses a decrease in accuracy when calculating the direction of a living body part from an captured image of the living body part. The purpose is to provide.
開示技術の一例では、画像処理装置は、判定部、推定部、角度算出画像作成部、角度算出部を備える。判定部は、生体部分の全体または一部が含まれて撮像された撮像画像から、生体部分の全体または一部のいずれであるかを判定する。推定部は、判定部により撮像画像に生体部分の一部が含まれると判定された場合に、生体部分の一部が、生体部分の全体のうちのいずれの部分であるかを推定する。角度算出画像作成部は、推定部により生体部分の一部が生体部分の全体のうちのいずれの部分であるかが推定された撮像画像から、生体部分の角度を特徴付ける情報を強調した角度算出画像を作成する。角度算出部は、角度算出画像作成部により作成された角度算出画像における角度を特徴付ける情報からベクトルを生成し、生成したベクトルをもとに、所定の基準方向に対する生体部分の角度を算出する。 In one example of the disclosed technology, the image processing apparatus includes a determination unit, an estimation unit, an angle calculation image creation unit, and an angle calculation unit. The determination unit determines whether it is the whole or a part of the living body part from the captured image captured including the whole or a part of the living body part. When the determination unit determines that the captured image includes a part of the living body part, the estimation unit estimates which part of the whole living body part is the part of the living body part. The angle calculation image creation unit is an angle calculation image that emphasizes information that characterizes the angle of the living body part from the captured image in which a part of the living body part is estimated by the estimation part as which part of the whole living body part is. To create. The angle calculation unit generates a vector from the information that characterizes the angle in the angle calculation image created by the angle calculation image creation unit, and calculates the angle of the living body portion with respect to a predetermined reference direction based on the generated vector.
開示技術の一例によれば、生体部分の撮像画像から生体部分の方向を算出する際の精度低下を抑制する。 According to an example of the disclosed technique, it is possible to suppress a decrease in accuracy when calculating the direction of the living body part from the captured image of the living body part.
以下に、本願の開示技術にかかる画像処理装置、画像処理方法および画像処理プログラムの実施例を図面に基づいて詳細に説明する。以下の実施例によって、本願の開示技術が限定されるものではない。以下の実施例では、生体認証において、生体の部分を手のひらとし、手のひらを生体センサにかざして取得した手のひらの画像を画像処理する画像処理装置を含む、手のひら静脈を用いる生体認証装置を例として説明する。しかし、開示技術は、これに限られず、指、瞳、顔などの生体のその他の部分を、生体センサに非接触でかざして取得した生体画像を画像処理する場合にも適用可能である。 Hereinafter, examples of the image processing apparatus, the image processing method, and the image processing program according to the disclosed technology of the present application will be described in detail with reference to the drawings. The disclosure techniques of the present application are not limited by the following examples. In the following embodiment, a biometric authentication device using a palm vein will be described as an example in biometric authentication, including an image processing device that processes an image of the palm acquired by holding the palm of the hand over a biosensor with the part of the living body as the palm. To do. However, the disclosure technique is not limited to this, and is also applicable to image processing of a biological image obtained by holding other parts of the living body such as a finger, eyes, and face over a biological sensor in a non-contact manner.
生体認証装置は、生体部分(例えば手のひら)を予め撮像した撮像画像から抽出した手のひら静脈の特徴データを「登録データ」としてデータベースに登録しておく。そして、生体認証装置は、コンピュータシステムへのログインやドアの入退出等使用の際に、生体部分を撮像し、撮像画像から抽出した手のひら静脈の特徴データを「認証データ」として、「登録データ」とを照合することで、生体を認証するものである。 The biometric authentication device registers the characteristic data of the palm vein extracted from the captured image of the biological part (for example, the palm) in advance as "registration data" in the database. Then, the biometric authentication device captures the living body part when logging in to the computer system, entering / exiting the door, etc., and the characteristic data of the palm vein extracted from the captured image is used as "authentication data" as "registration data". By collating with, the living body is authenticated.
以下の実施例および変形例の説明において、既出の構成要素および処理については、同一名称または同一符号を付与し、説明を省略する。また、以下の各実施例および各変形例は、矛盾しない範囲でその一部または全部を組合せて実施できる。 In the following description of the examples and modifications, the same names or the same reference numerals are given to the existing components and processes, and the description thereof will be omitted. In addition, each of the following examples and each modification can be carried out in combination in part or in whole within a consistent range.
(実施例1にかかる生体認証装置)
図1は、実施例1にかかる生体認証装置の外観の一例を示す斜視図である。図1に示すように、生体認証装置1は、筐体1a−1に撮像ユニット1bが収容され、赤外光に対して透光性を有するカバー1a−2により覆蓋されている。生体認証装置1は、カバー1a−2の上方からかざされた手のひらを撮像する。
(Biometric authentication device according to Example 1)
FIG. 1 is a perspective view showing an example of the appearance of the biometric authentication device according to the first embodiment. As shown in FIG. 1, the
図2は、実施例1にかかる生体認証装置の一例を示すI−I断面図である。図2に示すように、生体認証装置1の撮像ユニット1bは、基板2上に、撮像素子200、発光素子300、レンズユニット3、導光体4を有し、制御基板5上にマイクロコンピュータおよびメモリなどを含む処理装置100を有する。発光素子300が出射する光は、リング状の導光体4を透して照明光としてカバー1a−2から上方へ出射される。この光は、カバー1a−2の上方からかざされた手のひらを照明し、手のひらにおいて反射または吸収される。撮像素子200は、レンズユニット3のレンズを透して、カバー1a−2の上方からかざされた手のひらを撮像する。
FIG. 2 is a cross-sectional view taken along the line II showing an example of the biometric authentication device according to the first embodiment. As shown in FIG. 2, the
図3は、実施例1にかかる生体認証装置が有する基板の一例を示す平面図である。図3に示すように、基板2の中央に、撮像素子200が搭載される。基板2上で、撮像素子200の周囲の略円に沿って、レンズユニット3が配置される。また、基板2上で、レンズユニット3の周囲の略円に沿って、複数の発光素子300が配置される。なお、複数の発光素子300は、波長が異なる2種類の発光素子群に分けられるが、実施例1では区別していない。また、基板2上には、複数の発光素子300が発した光を受光する受光素子が配置されるが、図示を省略している。
FIG. 3 is a plan view showing an example of a substrate included in the biometric authentication device according to the first embodiment. As shown in FIG. 3, the
さらに、基板2の四隅には、生体認証装置1と手のひらとの距離を計測するための4つの測距用発光素子400が設けられる。図3に示すように、この4つの測距用発光素子400は、基板2の対角線上に配置され、かつ各測距用発光素子400の間隔は、最も距離の遠い対角線上に配置される。この4つの測距用発光素子400による測定距離から、生体認証装置1と対象物との距離や、対象物の傾きを検出する。なお、測距用発光素子400の数は、4つに限られない。
Further, four distance measuring
なお、図1〜図3は、実施例1にかかる生体認証装置1の一例を示すに過ぎず、同様の機能を実現できる他のハードウェア形態であってもよい。
It should be noted that FIGS. 1 to 3 are only an example of the
(実施例1にかかる生体認証装置の機能構成)
図4は、実施例1にかかる生体認証装置の一例を示す機能ブロック図である。図4に示すように、生体認証装置1は、撮像部110、正規化部120、特徴抽出部140、撮像素子200、発光素子300、測距用発光素子400、撮像DB(Data Base)500、候補DB600を有する。なお、図4では、生体認証装置1の主たる構成のみを示す。
(Functional configuration of biometric authentication device according to Example 1)
FIG. 4 is a functional block diagram showing an example of the biometric authentication device according to the first embodiment. As shown in FIG. 4, the
撮像素子200は、発光素子300により照射された近赤外光が利用者の手のひらで反射した近赤外光をもとに、利用者の手のひら画像を取得するための、例えばCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどである。発光素子300は、利用者の手のひらに対して近赤外光を照射するための、例えばLED(Light Emitting Diode)などである。測距用発光素子400は、生体認証装置1と生体認証装置1にかざされた手のひらとの距離を測定するために、スポット光(ビーム光)を手のひらに照射するための、例えばLEDなどである。
The
撮像DB500は、撮像素子200を介して撮像部110により撮像された手のひらの撮像画像を格納する半導体記憶装置などである。候補DB600は、正規化部120により推定された、手のひらの撮像画像が手のひらの部分のいずれの部分であるかを示す1または複数の推定結果を格納する半導体記憶装置などである。
The image pickup DB 500 is a semiconductor storage device or the like that stores an image of the palm imaged by the
撮像部110、正規化部120、特徴抽出部140は、MPU(Micro Processing Unit)などの処理装置である。撮像部110は、撮像素子200および発光素子300を制御して、生体認証装置1の上方にかざされた生体の手のひらの撮像画像を取得する。撮像部110は、取得した手のひらの撮像画像を撮像DB500に格納する。また、撮像部110は、測距用発光素子400から手のひらに照射されたスポット光の反射光をもとに、生体認証装置1と生体認証装置1にかざされた手のひらとの距離を算出する。
The
正規化部120は、撮像部110により取得された手のひらの撮像画像に対して、背景やノイズを除去した上で、回転を補正する正規化処理を行う。正規化部120の詳細は、図5を参照して後述する。なお、回転とは、撮像部110により手のひらが撮像される際、手のひらが生体認証装置1に本来かざされるべき3次元の基準方向に対する、手のひらが生体認証装置1に実際にかざされた3次元の方向のずれであり、角度で表される。
The normalization unit 120 performs a normalization process for correcting the rotation of the captured image of the palm acquired by the
特徴抽出部140は、正規化部120により正規化処理された手のひらの撮像画像から、手のひら静脈情報を抽出する。登録部150は、特徴抽出部140により抽出された手のひら静脈情報、および、手のひら静脈情報の登録環境などの付帯情報を、データベース(不図示)に格納する。照合部160は、特徴抽出部140により抽出された手のひら静脈情報と、登録部150によりデータベースに格納された手のひら静脈情報とを照合する。
The
(実施例1にかかる生体認証装置の正規化部の詳細)
図5は、実施例1にかかる生体認証装置の正規化部の詳細の一例を示す機能ブロック図である。図5に示すように、生体認証装置1の正規化部120は、全体判定部121、左右判定部122、左右指定部123、手全体推定部124、手のひら部分推定部125、確信度算出部126、角度算出画像作成部127、補助情報抽出部128、補助情報確信度算出部129、角度算出部1_130、確信度再算出部131、1位確定部132、手のひら取出部133、角度算出部2_134、回転部135を有する。
(Details of the Normalization Unit of the Biometric Authentication Device According to Example 1)
FIG. 5 is a functional block diagram showing a detailed example of the normalization unit of the biometric authentication device according to the first embodiment. As shown in FIG. 5, the normalization unit 120 of the
なお、正規化部120は、画像処理装置の一例である。また、手のひら取出部133、角度算出部2_134、回転部135は、従来技術にかかる正規化部と同様の構成である。
The normalization unit 120 is an example of an image processing device. Further, the palm extraction unit 133, the angle calculation unit 2_134, and the
全体判定部121は、撮像部110により撮像された生体の手の撮像画像から背景およびノイズを除去した画像を生成し、この画像が手のひら全体画像であるか否かを判定する。手のひら全体画像は、手のひら全体が含まれている画像である。なお、手のひら部分画像は、手のひらが部分的に含まれている画像である。
The overall determination unit 121 generates an image in which the background and noise are removed from the captured image of the hand of the living body captured by the
左右判定部122は、全体判定部121により判定された手のひら部分画像に含まれている手のひらの外郭から、この手のひらが左右のいずれの手であるか判定する。例えば、左右判定部122は、全体判定部121により判定された手のひら部分画像に含まれている手のひらの親指と人差し指との間の形状から、この手のひらが、右手の手のひらまたは左手の手のひらのいずれであるかを判定する。左右判定部122は、例えば、手のひらの親指と人差し指との間の形状が、L字状であれば左手の手のひらであると判定し、L字の鏡文字状であれば右手の手のひらであると判定する。
The left-
左右指定部123は、左右判定部122により手のひら部分画像に含まれている手のひらが左右のいずれの手であるか判定不可能な場合に、ユーザ入力や生体認証装置1のログ情報等をもとに左右のいずれの手であるかを指定する。左右判定部122により手のひら部分画像に含まれている手のひらが左右のいずれの手であるか判定可能な場合とは、手のひら部分画像に含まれている手のひらの撮像面積が、少なくとも手のひら全体の例えば60〜70[%]の場合である。また、左右判定部122により手のひら部分画像に含まれている手のひらが左右のいずれの手であるか判定不可能な場合とは、手のひら部分画像に含まれている手のひらの撮像面積が、手のひら全体の例えば30[%]未満の場合である。
The left /
手全体推定部124は、左右指定部123により左右いずれかの手であると指定された手のひら部分画像から手のひら表皮画像を生成し、生成した手のひら表皮画像と手のひらモデル(図17参照)とから、手のひら部分画像が手のひら全体のいずれの部分であるかを推定する(図11参照)。
The whole
なお、手のひらモデルは、手のひらのモデル画像の解析結果に基づく、手のひら部分画像が手のひら全体のいずれの部分であるかを推定するための、手のひら全体のモデルを示すアルゴリズムである。手のひらモデルは、後述の主情報(強い情報)毎、補助情報(弱い情報)毎のモデルであってもよいし、主情報(強い情報)および補助情報(弱い情報)を両方含むモデルであってもよい。 The palm model is an algorithm showing a model of the entire palm for estimating which part of the entire palm the palm partial image is based on the analysis result of the model image of the palm. The palm model may be a model for each main information (strong information) and each auxiliary information (weak information) described later, or a model including both main information (strong information) and auxiliary information (weak information). May be good.
手のひら部分推定部125は、手のひら部分画像から、撮像範囲外の手のひらを考慮した手のひら表皮画像を生成し、生成した手のひら表皮画像と手のひらモデルとから、1または複数の手のひら部分候補を推定する(図11、図12、図13A〜図13C参照)。手のひら部分推定部125は、手のひら部分画像に含まれる手のひらの撮像面積が、手のひら全体の面積に対して例えば60〜90[%]であると判定される場合、1つの手のひら部分を推定する(図11、図12参照)。一方、手のひら部分推定部125は、手のひら部分画像に含まれる手のひらの撮像面積が、手のひら全体の面積に対して例えば50[%]以下であると判定される場合、複数の手のひら部分候補を推定する(図13A〜図13C、図17参照)。手のひら部分候補は、手のひら部分画像が手のひら全体のいずれの部分であるかを示す情報を含む画像である。
The palm
そして、手のひら部分推定部125は、推定した手のひら部分候補に対して、所定のソートを行って手のひら部分候補を順序付け、順序に応じたインデックスnを付与した上で候補DB600に格納する。ただし、n=1、・・・、N(Nは、推定した手のひら部分候補の総数)である。なお、手のひら部分推定部125は、推定した手のひら部分候補が1つである場合は、この1つの手のひら部分候補にインデックス1を付与した上で候補DB600に格納する。
Then, the palm
以下、確信度算出部126、角度算出画像作成部127、補助情報抽出部128、補助情報確信度算出部129、角度算出部1_130、確信度再算出部131は、手のひら部分推定部125により推定された手のひら部分候補が複数(n個)である場合、この複数の手のひら部分候補毎に行う一連のステップS108〜ステップS113(図6参照)の処理を、全ての手のひら部分候補について完了するまで繰り返して行う。ただし、n=1、・・・、N(Nは、推定した手のひら部分候補の総数)である。
Hereinafter, the
確信度算出部126は、手のひら部分推定部125により推定された1または複数の手のひら部分候補それぞれの確信度knを下記(1)式に基づき算出する。確信度knは、手のひら部分候補が示す手のひら部分の確からしさを表す。下記(1)式において、nは、後述のステップS108(図6参照)で未選択の手のひら部分候補のなかから1つの手のひら部分候補を選択するn回目の処理に対応する。また、nが限界値、例えば6以上の場合は下記(2)式に基づき算出する。ただし、nが上限値、例えば10を超える場合は判定不能とし処理を中断する。
(数1)
kn=50−n×10[%]・・・(1)
(数2)
kn=50−50/n[%]・・・(2)
(Number 1)
k n = 50-n × 10 [%] ··· (1)
(Number 2)
k n = 50-50 / n [% ] ··· (2)
なお、確信度算出部126は、左右判定部122または左右指定部123により手のひら部分画像が左右いずれの手であるかが特定されている場合には、例えば、確信度k1=80[%]とする。また、確信度算出部126は、手のひら部分推定部125により推定された手のひら部分候補が1つである場合には、例えば、確信度k1=50[%]とする。
When the left /
角度算出画像作成部127は、手のひら部分画像もしくは手のひら部分候補と手のひらモデルとから画像範囲外の手のひら部分を含んだ合成画像を生成し、合成画像において平滑化などによりノイズを除去して必要情報を強調した角度算出画像を作成する(図14参照)。必要情報とは、手のひらの表皮や可動部のシワなどの、手のひらの方向(角度)を特徴付ける表皮情報であり、強い情報(以下、「主情報」と呼ぶ)および弱い情報(以下、「補助情報」と呼ぶ)の強度情報を含む。例えば、主情報は、表皮のシワのエッジ強度が所定以上である表皮情報であり、補助情報は、表皮のシワのエッジ強度が所定未満である表皮情報である。補助情報は、生体認証装置1に対して通常の所定の高さ以上で撮像された手のひらの通常画像に含まれる表皮情報よりも、より詳細な表皮情報である。
The angle calculation
補助情報抽出部128は、角度算出画像作成部127により作成された角度算出画像から、補助情報を抽出する。補助情報確信度算出部129は、補助情報抽出部128により抽出された補助情報の確信度(補助情報確信度θ)を、所定アルゴリズムにより算出する。補助情報確信度θは、補助情報に基づく、手のひら部分候補が示す手のひら部分の確からしさを表す。
The auxiliary
角度算出部1_130は、角度算出画像作成部127により作成された角度算出画像を複数のエリア(分割領域)へ分割し、各エリアから主情報および補助情報のエッジを抽出する。エリアは、例えばm×n(m、nは、2以上の正整数)のグリッドである。ただし、グリッドに限られず、メッシュ、ヘックスなどであってもよい。そして、角度算出部1_130は、抽出したエリア毎の主情報および補助情報のエッジをベクトル化する(図15、図16参照)。エッジのベクトル化では、例えば、エッジの方向をベクトルの方向とするベクトルを生成する。そして、角度算出部1_130は、主情報のエッジのベクトルと、所定モデルに含まれるベクトルとの内積をエリア毎に演算するとともに、補助情報のエッジのベクトルと、所定モデルに含まれるベクトルとの内積をエリア毎に演算する。
The angle calculation unit 1_130 divides the angle calculation image created by the angle calculation
なお、所定モデルとは、モデルとなる手のひら全体の表皮情報のエッジをベクトル化した、予め用意されたモデルである。以下、各エリアの主情報のエッジのベクトルと、所定モデルに含まれるベクトルとの内積を、「主内積」と呼ぶ。また、各エリアの補助情報のエッジのベクトルと、所定モデルに含まれるベクトルとの内積を「補助内積」と呼ぶ。 The predetermined model is a pre-prepared model in which the edges of the skin information of the entire palm as a model are vectorized. Hereinafter, the inner product of the edge vector of the main information of each area and the vector included in the predetermined model is referred to as "main inner product". Further, the inner product of the edge vector of the auxiliary information of each area and the vector included in the predetermined model is called "auxiliary inner product".
すなわち、角度算出部1_130は、角度算出画像をあてはめる所定モデルの部分領域を選択し、部分領域毎に、主内積をエリア単位で演算するとともに、補助内積をエリア単位で演算する。そして、角度算出部1_130は、全てのエリアの主内積および補助内積がともに所定誤差内の略同一値となる所定モデルの部分領域を角度算出画像が示す手のひら部分とし、その際の各エリアの主情報のベクトルを各エリアにおける主ベクトルとし、補助情報のベクトルを各エリアにおける補助ベクトルとする。なお、“全てのエリアの内積が所定誤差内の略同一値となる”とは、ベクトルの方向が所定範囲内で概ね揃うことをいう。 That is, the angle calculation unit 1_130 selects a partial region of a predetermined model to which the angle calculation image is applied, calculates the main inner product in area units, and calculates the auxiliary inner product in area units for each partial region. Then, the angle calculation unit 1_130 sets a partial region of a predetermined model in which the main inner product and the auxiliary inner product of all areas are substantially the same value within a predetermined error as the palm portion indicated by the angle calculation image, and the main of each area at that time. The information vector is the main vector in each area, and the auxiliary information vector is the auxiliary vector in each area. In addition, "the inner product of all areas has substantially the same value within a predetermined error" means that the directions of the vectors are substantially aligned within a predetermined range.
一方、角度算出部1_130は、主内積または補助内積が所定誤差内の略同一値とならないエリアがある場合、角度算出画像からノイズ除去処理により、ノイズとなる補助情報のエッジを除去した上で補助情報のエッジを再度ベクトル化する。そして、角度算出部1_130は、角度算出画像をあてはめる所定モデルの部分領域を再選択し、主内積および補助内積それぞれをエリア単位で再演算し、各エリアにおける主ベクトルおよび補助ベクトルを再算出する。 On the other hand, when there is an area where the main inner product or the auxiliary inner product does not have substantially the same value within a predetermined error, the angle calculation unit 1_130 assists after removing the edge of the auxiliary information that becomes noise from the angle calculation image by noise removal processing. Vectorize the edges of the information again. Then, the angle calculation unit 1_130 reselects the partial area of the predetermined model to which the angle calculation image is applied, recalculates each of the main inner product and the auxiliary inner product for each area, and recalculates the main vector and the auxiliary vector in each area.
角度算出部1_130は、上述の処理を、全てのエリアについて主内積および補助内積がともに所定誤差内の略同一値となる所定モデルの部分領域が選択されるまで繰り返す。そして、角度算出部1_130は、全てのエリアについて主内積および補助内積がともに所定誤差内の略同一値となった際の主内積から手のひら部分候補の角度を推定するとともに、補助内積をもとに手のひら部分候補の推定角度を補正する。例えば、全てのエリアについて主内積および補助内積がともに所定誤差内の略同一値となった際の各エリアにおける主ベクトルを足し合わせたベクトルの方向が、手のひら部分候補の推定角度である。また、例えば、各エリアにおける補助ベクトルを足し合わせたベクトルの方向が、手のひら部分候補に基づく推定角度を補正するための補正情報である。 The angle calculation unit 1_130 repeats the above process until a partial region of a predetermined model in which both the main inner product and the auxiliary inner product have substantially the same value within a predetermined error is selected for all areas. Then, the angle calculation unit 1_130 estimates the angle of the palm partial candidate from the main inner product when both the main inner product and the auxiliary inner product have substantially the same value within a predetermined error for all areas, and based on the auxiliary inner product. Correct the estimated angle of the palm part candidate. For example, the direction of the vector obtained by adding the main vectors in each area when both the main inner product and the auxiliary inner product have substantially the same value within a predetermined error for all areas is the estimated angle of the palm portion candidate. Further, for example, the direction of the vector obtained by adding the auxiliary vectors in each area is the correction information for correcting the estimated angle based on the palm portion candidate.
確信度再算出部131は、確信度算出部126により算出された確信度knと、補助情報確信度算出部129により算出された補助情報確信度θとから、手のひら部分推定部125により推定された複数の手のひら部分候補それぞれの修正確信度kn’を下記(3)式に基づき算出する。修正確信度kn’は、確信度knと補助情報確信度θとに基づく、手のひら部分候補が示す手のひら部分の確からしさを表す。下記(3)式において、nは、後述のステップS108(図6参照)で未選択の手のひら部分候補のなかから1つの手のひら部分候補を選択するn回目の処理に対応する。
(数3)
kn’=kn×θ・・・(3)
(Number 3)
k n '= k n × θ ... (3)
以上、確信度算出部126、角度算出画像作成部127、補助情報抽出部128、補助情報確信度算出部129、角度算出部1_130、確信度再算出部131により、手のひら部分推定部125により推定されたN個の手のひら部分候補について手のひら部分候補毎に行なわれる一連のステップS108〜ステップS113(図6参照)の処理が、全ての手のひら部分候補について完了すると、1位確定部132は、確信度再算出部131により算出された修正確信度kn’が最大である1位の手のひら部分候補を確定させる。
As described above, it is estimated by the palm
なお、1位確定部132は、確信度再算出部131により算出された修正確信度kn’が最大である1位の手のひら部分候補を確定させることに限られず、修正確信度kn’が上位の所定数の手のひら部分候補を確定させるとしてもよい。
Note that one of the
手のひら取出部133は、全体判定部121により判定された手のひら全体画像から背景やノイズを除去して手のひらを切り出す。角度算出部2_134は、手のひら取出部133により切り出された手のひらにおける手のひらの向きや傾きを算出する。手のひら取出部133および角度算出部2_134は、既存技術に基づいて処理を行う。 The palm extraction unit 133 removes the background and noise from the entire image of the palm determined by the overall determination unit 121, and cuts out the palm. The angle calculation unit 2_134 calculates the direction and inclination of the palm in the palm cut out by the palm extraction unit 133. The palm extraction unit 133 and the angle calculation unit 2_134 perform processing based on the existing technology.
回転部135は、1位確定部132により1位の手のひら部分候補が確定された手のひら部分画像を、1位の手のひら部分候補に基づく推定角度および補正情報に応じて回転させることにより、手のひら静脈画像を作成するための元画像を生成する。また、回転部135は、角度算出部2_134により手のひらの向きや傾きが算出された手のひら画像を、その手のひらの向きや傾きに応じて回転させることにより、手のひら静脈画像を作成するための元画像を生成する。
The
なお、回転部135は、手のひら全体画像および手のひら部分画像の推定角度、補正情報、修正確信度の少なくともいずれかを、手のひら静脈画像を作成するための元画像とともに出力してもよい。
The
(実施例1にかかる正規化処理)
図6は、実施例1にかかる正規化処理の一例を示すフローチャートである。実施例1にかかる正規化処理は、撮像部110により生体の手のひらが撮像され、正規化部120へ入力される都度、正規化部120により実行される。図6に示すように、先ず、ステップS101では、全体判定部121は、撮像部110により撮像された生体の手のひら画像の入力を受け付ける。
(Normalization processing according to Example 1)
FIG. 6 is a flowchart showing an example of the normalization process according to the first embodiment. The normalization process according to the first embodiment is executed by the normalization unit 120 each time the palm of the living body is imaged by the
次に、ステップS102では、全体判定部121は、ステップS101で入力を受け付けた手のひら画像について、全体判定処理を行う。具体的には、全体判定部121は、ステップS101で入力を受け付けた手のひら画像に手のひら全体が含まれているか否かを判定する。 Next, in step S102, the overall determination unit 121 performs an overall determination process on the palm image that received the input in step S101. Specifically, the overall determination unit 121 determines whether or not the entire palm image received the input in step S101 includes the entire palm.
全体判定部121は、ステップS101で入力を受け付けた手のひら画像に手のひら全体が含まれている場合(ステップS103Yes)、ステップS123へ処理を移す。以下、手のひら全体が含まれている手のひら画像を、手のひら全体画像と呼ぶ。一方、全体判定部121は、ステップS101で入力を受け付けた手のひら画像に手のひらが部分的に含まれている場合(ステップS103No)、ステップS104へ処理を移す。以下、手のひらが部分的に含まれている手のひら画像を、手のひら部分画像と呼ぶ。 When the palm image received the input in step S101 includes the entire palm (step S103Yes), the overall determination unit 121 shifts the process to step S123. Hereinafter, the palm image including the entire palm is referred to as the entire palm image. On the other hand, when the palm image that received the input in step S101 partially includes the palm (step S103 No.), the overall determination unit 121 shifts the process to step S104. Hereinafter, the palm image in which the palm is partially included is referred to as a palm partial image.
ステップS104では、左右判定部122は、ステップS103で全体判定部121により判定された手のひら部分画像に含まれている手のひらが左手であるかを判定する。左右判定部122は、手のひら部分画像に含まれている手のひらが左手であると判定した場合(ステップS104Yes)、ステップS116へ処理を移す。一方、左右判定部122は、手のひら部分画像に含まれている手のひらが左手であると判定できなかった場合(ステップS104No)、ステップS105へ処理を移す。
In step S104, the left-
ステップS105では、左右判定部122は、ステップS103で全体判定部121により判定された手のひら部分画像に含まれている手のひらが右手であるかを判定する。左右判定部122は、手のひら部分画像に含まれている手のひらが右手であると判定した場合(ステップS105Yes)、ステップS117へ処理を移す。一方、左右判定部122は、手のひら部分画像に含まれている手のひらが右手であると判定できなかった場合(ステップS105No)、ステップS106へ処理を移す。
In step S105, the left-
ステップS106では、手のひら部分推定部125は、左右判定部122により左右のいずれの手であるかが判定できなかった手のひら部分画像に含まれている手のひらが、手のひら全体のいずれの部分であるかを示す、1または複数の手のひら部分候補を推定する。ステップS107では、手のひら部分推定部125は、ステップS106で推定した手のひら部分候補が複数か否かを判定する。手のひら部分推定部125は、ステップS106で推定した手のひら部分候補が複数である場合(ステップS107Yes)、ステップS108へ処理を移す。一方、手のひら部分推定部125は、ステップS106で推定した手のひら部分候補が1つである場合(ステップS107No)、ステップS119へ処理を移す。
In step S106, the palm
次に、確信度算出部126、角度算出画像作成部127、補助情報抽出部128、補助情報確信度算出部129、角度算出部1_130、確信度再算出部131は、ステップS106で手のひら部分推定部125により推定された複数の手のひら部分候補全てについて、手のひら部分候補毎に、ステップS108〜ステップS113の処理を行う。
Next, the
ステップS108では、確信度算出部126は、手のひら部分推定部125により推定された複数の手のひら部分候補のなかから未選択の手のひら部分候補を1つ選択し、上記(1)式においてn=1とおき、選択した手のひら部分候補の確信度k1を算出する。次に、ステップS109では、角度算出画像作成部127は、ステップS108で選択された手のひら部分候補をもとに角度算出画像を作成する。
In step S108, the
次に、ステップS110では、補助情報抽出部128は、ステップS109で角度算出画像作成部127により作成された角度算出画像から補助情報を抽出する。次に、ステップS111では、補助情報確信度算出部129は、ステップS110で補助情報抽出部128により抽出された補助情報の確信度(補助情報確信度θ)を算出する。
Next, in step S110, the auxiliary
次に、ステップS112では、角度算出部1_130は、ステップS109で角度算出画像作成部127により作成された角度算出画像から抽出してベクトル化した主情報および補助情報のエッジをもとに、この角度算出画像の角度を算出する。次に、ステップS113では、確信度再算出部131は、ステップS108で確信度算出部126により算出された確信度k1と、ステップS111で補助情報確信度算出部129により算出された補助情報確信度θとから、ステップS108で選択した手のひら部分候補の修正確信度k1’を上記(3)式に基づき算出する。
Next, in step S112, the angle calculation unit 1_130 extracts and vectorizes the angle from the angle calculation image created by the angle calculation
次に、ステップS108へ戻り、確信度算出部126は、手のひら部分推定部125により推定された複数の手のひら部分候補のなかから未選択の手のひら部分候補を1つ選択し、上記(1)式においてn=2とおき、選択した手のひら部分候補の確信度k2を算出する。以下、角度算出画像作成部127、補助情報抽出部128、補助情報確信度算出部129、角度算出部1_130、確信度再算出部131は、ステップS109〜ステップS113の処理を、ステップS108で選択した手のひら部分候補について行う。
Next, returning to step S108, the
そして、確信度算出部126、角度算出画像作成部127、補助情報抽出部128、補助情報確信度算出部129、角度算出部1_130、確信度再算出部131は、手のひら部分推定部125により推定された複数の手のひら部分候補のうちのステップS108で未選択の手のひら部分候補全てについて、n=3、・・・、Nとし、ステップS108〜ステップS113の処理を行う。正規化部120は、ステップS108で最後に選択された手のひら部分候補についてステップS113の処理が終了すると、ステップS114へ処理を移す。
Then, the
ステップS114では、1位確定部132は、ステップS106で推定されたN個の手のひら部分候補のうち、確信度再算出部131により算出された修正確信度kn’(n=1、・・・、N)が最大である1位の手のひら部分候補を確定させる。次に、ステップS115では、回転部135は、ステップS114で1位確定部132により確定された手のひら部分候補、または、ステップS122もしくはステップS124で角度算出処理された手のひら画像を、その推定角度に応じて回転させ、角度を補正することにより、手のひら静脈画像を作成するための元画像を生成する。ステップS115が終了すると、正規化部120は、実施例1にかかる正規化処理を終了する。
In step S114, the 1st place determination unit 132 has a modified certainty degree k n '(n = 1, ...) Calculated by the certainty
他方、ステップS116では、手全体推定部124は、ステップS104で左右指定部123により左手であると判定された手のひら部分画像から手のひら表皮画像を生成し、生成した手のひら表皮画像と手のひらモデルとを比較して、手のひら部分画像が左手のひら全体のいずれの部分であるかを推定する。ステップS116が終了すると、正規化部120は、ステップS118へ処理を移す。
On the other hand, in step S116, the entire
また、ステップS117では、手全体推定部124は、ステップS105で左右指定部123により右手であると判定された手のひら部分画像から手のひら表皮画像を生成し、生成した手のひら表皮画像と手のひらモデルとから、手のひら部分画像が右手のひら全体のいずれの部分であるかを推定する。ステップS117が終了すると、正規化部120は、ステップS118へ処理を移す。
Further, in step S117, the entire
ステップS118では、確信度算出部126は、ステップS116またはステップS117で左右の手のひら全体のいずれの部分であるかが推定された手のひら部分画像の確信度を、例えば80[%]とする。ステップS118が終了すると、正規化部120は、ステップS120へ処理を移す。
In step S118, the
また、ステップS119では、確信度算出部126は、ステップS107で推定された唯一の手のひら部分候補の確信度を、例えば50[%]とする。ステップS119が終了すると、正規化部120は、ステップS120へ処理を移す。
Further, in step S119, the
ステップS120では、角度算出画像作成部127は、ステップS118またはステップS119で確信度が設定された手のひら部分画像または手のひら部分候補をもとに角度算出画像を作成する。次に、ステップS121では、補助情報抽出部128は、ステップS120で角度算出画像作成部127により作成された角度算出画像から補助情報を抽出する。次に、ステップS122では、角度算出部1_130は、ステップS120で角度算出画像作成部127により作成された角度算出画像から抽出してベクトル化した主情報および補助情報のエッジをもとに、この角度算出画像の角度を算出する。ステップS122が終了すると、正規化部120は、ステップS115へ処理を移す。
In step S120, the angle calculation
また、他方で、ステップS123では、手のひら取出部133は、ステップS103で判定された手のひら全体画像から、背景やノイズを除去する手のひら取出処理を行う。次に、ステップS124では、角度算出部2_134は、ステップS124で手のひら取出部133により手のひら取出処理された手のひら全体画像をもとに、手のひらの角度や傾きを算出する。ステップS124が終了すると、正規化部120は、ステップS115へ処理を移す。 On the other hand, in step S123, the palm extraction unit 133 performs a palm extraction process for removing the background and noise from the entire palm image determined in step S103. Next, in step S124, the angle calculation unit 2_134 calculates the angle and inclination of the palm based on the entire palm image processed by the palm extraction unit 133 in step S124. When step S124 is completed, the normalization unit 120 shifts the process to step S115.
なお、ステップS119における確信度=50[%]が、ステップS118における確信度=80[%]よりも低い確信度であるのは、ステップS119の手のひら部分候補が、ステップS118の手のひら部分画像と比較して、左右いずれの手であるかが確定されていないためである。また、ステップS108での確信度knが、ステップS119での確信度=50[%]よりも低い確信度であるのは、手のひら部分候補が、1つではなく複数存在するためである。 The degree of certainty = 50 [%] in step S119 is lower than the degree of certainty = 80 [%] in step S118 because the palm part candidate in step S119 is compared with the palm part image in step S118. This is because it has not been determined which hand is left or right. Also, confidence k n at the step S108 is confidence = 50 is the lower confidence than [%] is in step S119, palm candidates is for one to several present instead.
(従来技術における角度算出処理の成功例)
図7は、従来技術における角度算出処理の成功例を示す図である。全体判定部121は、図7の(a−1)が左手の手のひら全体画像であると判定できる。手のひら取出部133は、図7の(a−1)の左手の手のひら全体画像から、図7の(a−2)の囲み破線で示すように、手のひらを切り出す。そして、角度算出部2_134は、図7の(a−3)の矢印で示すように、手のひら取出部133により切り出された左手の手のひらの向き(角度)を算出する。同様に、全体判定部121は、図7の(b−1)が右手の手のひら全体画像であると判定できる。手のひら取出部133は、図7の(b−1)の右手の手のひら全体画像から、図7の(b−2)の囲み破線で示すように、右手の手のひらを切り出す。そして、角度算出部2_134は、図7の(b−3)の実線矢印で示すように、手のひら取出部133により切り出された右手の手のひらの向き(角度)を算出する。このように、従来技術は、手のひら全体画像から手のひらを切り出す場合には、手のひらの角度を正しく算出することができる。
(Successful example of angle calculation processing in the prior art)
FIG. 7 is a diagram showing a successful example of the angle calculation process in the prior art. The overall determination unit 121 can determine that (a-1) in FIG. 7 is the entire image of the palm of the left hand. The palm extraction unit 133 cuts out the palm from the entire image of the left palm in FIG. 7 (a-1) as shown by the enclosed broken line in FIG. 7 (a-2). Then, the angle calculation unit 2_134 calculates the direction (angle) of the left palm cut out by the palm extraction unit 133, as shown by the arrow in FIG. 7 (a-3). Similarly, the overall determination unit 121 can determine that (b-1) in FIG. 7 is the entire image of the palm of the right hand. The palm extraction unit 133 cuts out the palm of the right hand from the entire image of the palm of the right hand in FIG. 7 (b-1) as shown by the enclosed broken line in FIG. 7 (b-2). Then, the angle calculation unit 2_134 calculates the direction (angle) of the right palm cut out by the palm extraction unit 133, as shown by the solid arrow in FIG. 7 (b-3). As described above, in the prior art, when the palm is cut out from the entire image of the palm, the angle of the palm can be calculated correctly.
(従来技術において誤った角度が算出される例)
図8は、従来技術において誤った角度が算出される例を示す図である。手のひら取出部133は、図8の(a−1)に示す右手の手のひら部分画像からは、図8の(a−2)の囲み破線で示すように、部分的な右手の手のひらを切り出すことしかできない。しかし、角度算出部2_134は、切り出された右手の手のひらが部分的であることを認識しないまま、図8の(b−3)の実線矢印で示すように、左手の手のひらの向き(角度)を算出する。このため、図8の(a−3)の実線矢印は、破線矢印で示す左手の手のひらの正しい向き(角度)と乖離している。
(Example of calculating an incorrect angle in the prior art)
FIG. 8 is a diagram showing an example in which an erroneous angle is calculated in the prior art. The palm extraction portion 133 can only partially cut out the palm of the right hand from the image of the palm part of the right hand shown in FIG. 8 (a-1), as shown by the enclosed broken line in FIG. 8 (a-2). Can not. However, the angle calculation unit 2_134 determines the direction (angle) of the left palm as shown by the solid arrow in FIG. 8 (b-3) without recognizing that the cut out right palm is partial. calculate. Therefore, the solid line arrow in FIG. 8 (a-3) deviates from the correct direction (angle) of the left palm indicated by the broken line arrow.
同様に、手のひら取出部133は、図8の(b−1)に示す右手の手のひら部分画像からは、図8の(b−2)の囲み破線で示すように、部分的な右手の手のひらを切り出すことしかできない。しかし、角度算出部2_134は、切り出された右手の手のひらが部分的であることを認識しないまま、図8の(b−3)の実線矢印で示すように、右手の手のひらの向き(角度)を算出する。このため、図8の(b−3)の実線矢印は、破線矢印で示す右手の手のひらの正しい向き(角度)と乖離している。このように、従来技術は、手のひら部分画像から手のひらを切り出す場合には、手のひらの角度を正しく算出することができない。 Similarly, from the right palm partial image shown in FIG. 8 (b-1), the palm extraction portion 133 may partially remove the right palm as shown by the enclosed broken line in FIG. 8 (b-2). You can only cut it out. However, the angle calculation unit 2_134 determines the direction (angle) of the right palm as shown by the solid arrow in FIG. 8 (b-3) without recognizing that the cut out right palm is partial. calculate. Therefore, the solid line arrow in FIG. 8 (b-3) deviates from the correct direction (angle) of the palm of the right hand indicated by the broken line arrow. As described above, in the prior art, when the palm is cut out from the palm partial image, the angle of the palm cannot be calculated correctly.
(従来技術において角度算出が失敗する例)
図9は、従来技術において角度算出が失敗する例を示す図である。図9の(a)〜(d)に示す例は、手のひら部分画像に含まれる手のひらの撮像面積が、手のひら全体の面積に対して例えば50[%]未満である。また、図9の(a)〜(c)に示す手のひら部分画像には、いずれかの指と指との間であると推定できる部分が存在するが、図9の(c)では、その部分が手のひら部分画像の左右いずれかではなく、中央に位置していることから、手のひら部分画像が左右いずれの手であるかを判定することができない。
(Example of angle calculation failure in the prior art)
FIG. 9 is a diagram showing an example in which the angle calculation fails in the prior art. In the examples shown in FIGS. 9A to 9D, the imaged area of the palm included in the palm partial image is, for example, less than 50 [%] with respect to the total area of the palm. Further, in the palm partial image shown in FIGS. 9 (a) to 9 (c), there is a portion that can be presumed to be between any finger, but in FIG. 9 (c), that portion is present. Is located in the center of the palm partial image, not on the left or right, so it cannot be determined whether the palm partial image is the left or right hand.
また、図9の(d)に示す手のひら部分画像には、いずれかの指と指との間であると推定できる部分が存在しないことから、手のひら部分画像が左右いずれの手であるかを判定することができない。このため、手のひら取出部133は、図9の(a)〜(d)に示す手のひら部分画像に含まれる手のひらが、左右のいずれの手のひら全体におけるいずれの部分に該当するかが不明であり、手のひら部分画像から手のひらを抽出できない。よって、図9の(a)〜(d)に示す例では、手のひらの角度の算出自体を行うことができない。 Further, since the palm partial image shown in FIG. 9D does not have a portion that can be presumed to be between any of the fingers, it is determined whether the palm partial image is the left or right hand. Can not do it. Therefore, in the palm extraction unit 133, it is unclear which part of the entire left or right palm the palm included in the palm partial images shown in FIGS. 9 (a) to 9 (d) corresponds to, and the palm The palm cannot be extracted from the partial image. Therefore, in the examples shown in FIGS. 9A to 9D, the palm angle cannot be calculated.
(左右手判定)
図10は、左右手判定結果の一例を示す図である。図10の(a)に示す例は、手のひら部分画像のなかの右手の親指と人差し指とがなすL字状の部分(図10の(a)中の実線矢印部分)が手のひら部分画像の右方に位置するため、左右手判定により、手のひら部分画像が右手の撮像画像であると判定できる。また、図10の(b)に示す例は、手のひら部分画像のなかの左手の親指と人差し指とがなすL字の鏡文字状の部分(図10の(b)中の実線矢印部分)が手のひら部分画像の左方に位置するため、左右手判定により、手のひら部分画像が左手の撮像画像であると判定できる。
(Left and right hand judgment)
FIG. 10 is a diagram showing an example of the left / right hand determination result. In the example shown in FIG. 10A, the L-shaped portion (solid arrow portion in FIG. 10A) formed by the thumb and index finger of the right hand in the palm partial image is to the right of the palm partial image. Since it is located at, it can be determined that the palm partial image is the captured image of the right hand by the left and right hand determination. Further, in the example shown in FIG. 10 (b), the L-shaped mirror writing portion (the solid line arrow portion in FIG. 10 (b)) formed by the thumb and index finger of the left hand in the palm partial image is the palm. Since it is located to the left of the partial image, it can be determined that the palm partial image is the captured image of the left hand by the left and right hand determination.
また、図10の(c)に示す例は、手のひら部分画像のなかの左手の親指と人差し指とがなすL字状の部分(図10の(c)中の実線矢印部分)手のひら部分画像の左方に位置するため、左右手判定により、手のひら部分画像が左手の撮像画像であると判定できる。また、図10の(d)に示す例は、手のひら部分画像のなかの右手の親指と人差し指とがなすL字状の部分(図10の(d)中の実線矢印部分)が手のひら部分画像の右方に位置するため、左右手判定により、手のひら部分画像が右手の撮像画像であると判定できる。 Further, in the example shown in FIG. 10 (c), the L-shaped portion (solid arrow portion in FIG. 10 (c)) formed by the thumb and index finger of the left hand in the palm partial image is left of the palm partial image. Since it is located in the direction, it can be determined that the palm partial image is the captured image of the left hand by the left and right hand determination. Further, in the example shown in FIG. 10 (d), the L-shaped portion (the solid line arrow portion in FIG. 10 (d)) formed by the thumb and index finger of the right hand in the palm partial image is the palm partial image. Since it is located on the right side, it can be determined that the palm partial image is the captured image of the right hand by the left and right hand determination.
しかし、図10の(e)に示す例は、手のひら部分画像のなかに、手の親指と人差し指とがなすL字状またはL字の鏡文字状の部分が含まれるものの、その部分が、想定される箇所に位置しないため、左右手判定による手のひら部分画像が左右いずれの手の撮像画像であるかが判定できない。また、図10の(f)に示す例は、手のひら部分画像のなかに、手の親指と人差し指とがなすL字状またはL字の鏡文字状の部分が含まれないため、左右手判定が行えず、手のひら部分画像が左右いずれの手の撮像画像であるかが判定できない。 However, in the example shown in FIG. 10 (e), although the palm partial image includes an L-shaped or L-shaped mirror-shaped portion formed by the thumb and index finger of the hand, that portion is assumed. Since it is not located at the location where the image is formed, it is not possible to determine which of the left and right hands is the captured image of the palm portion by the left and right hand determination. Further, in the example shown in FIG. 10 (f), since the palm partial image does not include the L-shaped or L-shaped mirror writing portion formed by the thumb and index finger of the hand, the left and right hand determination can be performed. Therefore, it is not possible to determine whether the palm partial image is the captured image of the left or right hand.
(実施例1における手のひら部分の推定結果)
図11および図12は、実施例1における手のひら部分の推定結果の一例を示す図である。図11は、手のひら部分推定部125が、手のひら部分画像に含まれる手のひらの撮像面積が、手のひら全体の面積に対して例えば60〜90[%]である場合に、1つだけ推定する手のひら部分の推定結果を示す。例えば、図11の(a)は、手のひら部分推定部125が、図8の(a−1)に示す手のひら部分画像を入力として、手のひら部分画像が手のひら全体のいずれの部分であるかを示す手のひら全体の外郭(図11の(a)中の破線部分)を推定した結果である。また、例えば、図11の(b)は、手のひら部分推定部125が、図8の(b−1)に示す手のひら部分画像を入力として、手のひら部分画像が手のひら全体のいずれの部分であるかを示す手のひら全体の外郭(図11の(b)中の破線部分)を推定した結果である。
(Estimation result of palm portion in Example 1)
11 and 12 are diagrams showing an example of the estimation result of the palm portion in the first embodiment. FIG. 11 shows that the palm
図12は、手のひら部分推定部125が、手のひら部分画像に含まれる手のひらの撮像面積が、手のひら全体の面積に対して例えば50[%]以下である場合に推定する、複数の手のひら部分を示す。例えば、図12の(a−1)および(a−2)は、手のひら部分推定部125が、図9の(a)に示す手のひら部分画像を入力として、手のひら部分画像が手のひら全体のいずれの部分であるかを示す手のひら全体の外郭(図12の(a−1)および(a−2)中の破線部分)を2通り推定した結果である。また、例えば、図12の(b−1)および(b−2)は、手のひら部分推定部125が、図9の(b)に示す手のひら部分画像を入力として、手のひら部分画像が手のひら全体のいずれの部分であるかを示す手のひら全体の外郭(図12の(b−1)および(b−2)中の破線部分)を2通り推定した結果である。
FIG. 12 shows a plurality of palm portions estimated by the palm
図13A〜図13Cは、実施例1において手のひらが左右いずれの手であるか指定された場合の手のひら部分の複数の推定結果の一例を示す図である。例えば、図13Aの(a−1)は、図9の(c)に示す手のひら部分画像に対し、左右指定部123により“右手”の指定がされた場合に、手全体推定部124が、手のひら全体における手のひら部分画像の部分を推定した結果である。また、例えば、図13Aの(a−1)は、図9の(c)に示す手のひら部分画像に対し、左右指定部123により“右手”の指定がされた場合に、手のひら部分推定部125が、手のひら部分画像を入力として、手のひら部分画像が手のひら全体のいずれの部分であるかを示す手のひら全体の外郭(図13Aの(a−2)中の破線部分)を推定した結果である。
13A to 13C are diagrams showing an example of a plurality of estimation results of the palm portion when it is specified whether the palm is the left or right hand in the first embodiment. For example, in FIG. 13A (a-1), when the “right hand” is designated by the left /
また、例えば、図13Bの(b−1−1)および図13Cの(b−2−1)は、図9の(d)に示す手のひら部分画像に対し、左右指定部123により“右手”の指定がされた場合に、手全体推定部124が、手のひら全体における手のひら部分画像の部分を2通り推定した結果である。また、例えば、図13Bの(b−1−2)および図13Cの(b−2−2)は、図9の(d)に示す手のひら部分画像に対し、左右指定部123により“右手”の指定がされた場合に、手のひら部分推定部125が、手のひら部分画像を入力として、手のひら部分画像が手のひら全体のいずれの部分であるかを示す手のひら全体の外郭(図13Bの(b−1−2)中の破線部分)を2通り推定した結果のうちの1つである。
Further, for example, (b-1-1) in FIG. 13B and (b-2-1) in FIG. 13C are “right hand” by the left and
(実施例における手のひら部分の撮像画像に基づく角度算出画像)
図14は、実施例1における手のひら部分の撮像画像に対し、ノイズ除去後、必要情報を強調した角度算出画像の一例を示す図である。例えば、図14は、角度算出画像作成部127が、図9の(d)に示す手のひら部分画像(もしくは手のひら部分候補)と手のひらモデルとから画像範囲外の手のひら部分を含んだ合成画像を生成し、合成画像において平滑化などによりノイズを除去して必要情報を強調した角度算出画像である。
(Angle calculation image based on the captured image of the palm portion in the example)
FIG. 14 is a diagram showing an example of an angle calculation image in which necessary information is emphasized after noise removal with respect to the captured image of the palm portion in the first embodiment. For example, in FIG. 14, the angle calculation
(実施例1における手のひら部分の強調画像のエリア分割)
図15は、実施例1における手のひら部分の角度算出画像のエリア分割の一例を示す図である。例えば、図15は、角度算出部1_130が、角度算出画像作成部127により作成された角度算出画像を4×4のグリッドに分割した例を示す。
(Area division of the emphasized image of the palm portion in Example 1)
FIG. 15 is a diagram showing an example of area division of the angle calculation image of the palm portion in the first embodiment. For example, FIG. 15 shows an example in which the angle calculation unit 1_130 divides the angle calculation image created by the angle calculation
(実施例1における手のひら部分のエリア分割画像の分割エリア毎の方向性)
図16は、実施例1における手のひら部分をエリア分割した角度算出画像に対し、必要情報に基づいて、分割エリア毎の方向性を算出した方向性算出結果の一例を示す図である。図16の(a)は、図15に示す4×4のエリアに分割した角度算出画像から、主情報のみを抽出し、エリア毎の主情報のエッジのベクトルを、分割エリア毎の主情報の方向性として算出した例を示す。図16の(b)は、図15に示す4×4のエリアに分割した角度算出画像から、補助情報のみを抽出し、エリア毎の補助情報のエッジのベクトルを、分割エリア毎の補助情報の方向性として算出した例を示す。
(Direction of each divided area of the area divided image of the palm part in Example 1)
FIG. 16 is a diagram showing an example of a directionality calculation result in which the directionality of each divided area is calculated based on necessary information with respect to the angle calculation image obtained by dividing the palm portion into an area in the first embodiment. In FIG. 16A, only the main information is extracted from the angle calculation image divided into the 4 × 4 areas shown in FIG. 15, and the edge vector of the main information for each area is used as the main information for each divided area. An example calculated as the directionality is shown. In FIG. 16B, only the auxiliary information is extracted from the angle calculation image divided into the 4 × 4 areas shown in FIG. 15, and the edge vector of the auxiliary information for each area is used as the auxiliary information for each divided area. An example calculated as the directionality is shown.
(実施例1における手のひらモデル)
図17は、実施例1における手のひらモデルの一例を示す図である。図17(a)は、必要情報のうち、主情報(強い情報)に関する手のひらモデルの一例を示す。主情報(強い情報)に関する手のひらモデルは、手のひら全体の外郭と、その外郭内に含まれる主情報のエッジとを含む。図17(b)は、必要情報のうち、補助情報(弱い情報)に関する手のひらモデルの一例を示す。補助情報(弱い情報)に関する手のひらモデルは、手のひら全体の外郭と、その外郭内に含まれる補助情報のエッジとを含む。
(Palm model in Example 1)
FIG. 17 is a diagram showing an example of a palm model in the first embodiment. FIG. 17A shows an example of a palm model regarding the main information (strong information) among the necessary information. The palm model for the main information (strong information) includes the outer shell of the entire palm and the edges of the main information contained within the outer shell. FIG. 17B shows an example of a palm model regarding auxiliary information (weak information) among necessary information. The palm model for auxiliary information (weak information) includes the outer shell of the entire palm and the edges of the auxiliary information contained within the outer shell.
(実施例1における複数の手のひら部分候補の推定結果)
図18は、実施例1における複数の手のひら部分候補の推定結果の一例を示す図である。図18の(a)に例示する2つの実線矩形囲み部分が、手のひら部分画像と、主情報(強い情報)に関する手のひらモデル(図17の(a)参照)ならびに補助情報(弱い情報)に関する手のひらモデル(図17の(b)参照)とから推定された、複数の手のひら部分候補である。また、図18の(b)は、推定された例えば2つの手のひら部分候補(図18の(a)参照)のうちの一方を示し、図18の(c)は、推定された例えば2つの手のひら部分候補のうちの他方を示す。このように、実施例では、1つの手のひら部分画像から、この手のひら部分画像の複数の手のひら部分候補が推定される。
(Estimation result of a plurality of palm partial candidates in Example 1)
FIG. 18 is a diagram showing an example of estimation results of a plurality of palm partial candidates in the first embodiment. The two solid rectangular boxes illustrated in FIG. 18 (a) are a palm partial image, a palm model for main information (strong information) (see (a) in FIG. 17), and a palm model for auxiliary information (weak information). It is a plurality of palm partial candidates estimated from (see (b) of FIG. 17). Further, FIG. 18B shows one of the estimated two palm partial candidates (see FIG. 18A), and FIG. 18C shows the estimated two palms, for example. The other of the partial candidates is shown. As described above, in the embodiment, a plurality of palm partial candidates of the palm partial image are estimated from one palm partial image.
(実施例1における角度算出処理の成功例)
図19は、実施例1における角度算出処理の成功例を示す図である。図19の(a)は、図8の(a−3)に示す、実線矢印(算出結果)で示す手のひらの向き(角度)と、破線矢印(正解)で示す手のひらの正しい向き(角度)との乖離が生じず、算出結果と正解とが一致した場合を例示する。同様に、図19の(b)は、図8の(b−3)に示す、実線矢印(算出結果)で示す手のひらの向き(角度)と、破線矢印(正解)で示す手のひらの正しい向き(角度)との乖離が生じず、算出結果と正解とが一致した場合を例示する。
(Successful example of angle calculation processing in Example 1)
FIG. 19 is a diagram showing a successful example of the angle calculation process in the first embodiment. FIG. 19A shows the direction (angle) of the palm indicated by the solid arrow (calculation result) and the correct orientation (angle) of the palm indicated by the dashed arrow (correct answer) shown in FIG. 8A-3. This is an example of a case where the calculation result and the correct answer match without any discrepancy. Similarly, FIG. 19 (b) shows the orientation (angle) of the palm indicated by the solid arrow (calculation result) and the correct orientation (correct answer) of the palm indicated by the dashed arrow (correct answer) shown in FIG. 8 (b-3). An example is shown in which the calculation result and the correct answer match without any deviation from the angle).
このように、実施例1は、手のひら部分画像の手のひら部分候補を複数推定し、推定した複数の手のひら部分候補毎に、手のひら部分候補と手のひらモデルとを比較して、主情報から手のひら部分候補に基づく角度を算出し、算出した角度を補助情報に基づき補正する。そして、手のひらとして確からしい手のひら部分候補の角度を、手のひら部分画像の角度とする。よって、手のひら部分画像の角度算出処理結果を正しいものとし、算出角度の精度低下を抑制することができる。 As described above, in the first embodiment, a plurality of palm partial candidates of the palm partial image are estimated, and for each of the plurality of estimated palm partial candidates, the palm partial candidate and the palm model are compared, and the main information is converted into the palm partial candidate. The based angle is calculated, and the calculated angle is corrected based on the auxiliary information. Then, the angle of the palm portion candidate that is probable as the palm is defined as the angle of the palm portion image. Therefore, the angle calculation processing result of the palm partial image can be made correct, and the decrease in the accuracy of the calculated angle can be suppressed.
また、実施例1によれば、生体認証装置1に対して所定距離未満の近距離で撮影され、手のひら全体の面積に対して、例えば少なくとも60〜70[%]程度が撮影されている場合には、外郭が一部しかない、または、外郭がほぼない手のひら部分画像であっても、手のひらの角度を正しく算出できる。また、実施例1によれば、生体認証装置1に対して所定距離未満の近距離で撮影され、手のひら全体の面積に対して、例えば30[%]未満が撮影されている場合には、回転が大きく左右のいずれの手のひらであるかを判定できないことがあるため、左右いずれの手であるかを予め指定することで、角度を正確に算出することができる。
Further, according to the first embodiment, when the
実施例1では、手のひらが部分的にしか撮像されてない場合は、手のひら全体が撮像された場合と比較して、より詳細な情報(手のひら全体が撮像された場合には脆弱な情報)を補助情報として活用し、撮像された手のひらの部分が手のひらのいずれの位置であるかを推定する。また、実施例1では、撮像された手のひらの部分の手のひらにおける位置に応じて、補助情報の抽出方法を動的に変更する。よって、実施例1によれば、補助情報の情報量および精度を向上させ、手のひらの角度をより正確に算出できることから、延いては、認証精度の向上に貢献することになる。 In the first embodiment, when the palm is only partially imaged, more detailed information (vulnerable information when the entire palm is imaged) is assisted as compared with the case where the entire palm is imaged. It is used as information to estimate the position of the imaged palm part of the palm. Further, in the first embodiment, the method of extracting the auxiliary information is dynamically changed according to the position of the imaged palm portion in the palm. Therefore, according to the first embodiment, the amount and accuracy of the auxiliary information can be improved, and the angle of the palm can be calculated more accurately, which in turn contributes to the improvement of the authentication accuracy.
実施例2は、1つの手のひら部分画像から複数の手のひら部分候補を推定し、推定した複数の手のひら部分候補のなかから確信度が1位である手のひら部分候補を確定し、確定した手のひら部分候補に基づく角度で手のひら部分画像を回転させて、手のひら静脈画像を作成するための元画像を生成するとした。しかし、これに限られず、実施例2では、1位の手のひら部分候補を確定せず、推定した複数の手のひら部分候補それぞれの角度で手のひら部分画像を回転させて、手のひら静脈画像を作成するための元画像を複数生成する。 In the second embodiment, a plurality of palm partial candidates are estimated from one palm partial image, a palm partial candidate having the highest degree of certainty is determined from the estimated palm partial candidates, and the determined palm partial candidate is used. It is assumed that the palm partial image is rotated by the base angle to generate the original image for creating the palm vein image. However, the present invention is not limited to this, and in the second embodiment, the first-ranked palm portion candidate is not determined, and the palm portion image is rotated at each of the estimated angles of the plurality of palm portion candidates to create a palm vein image. Generate multiple original images.
(実施例2にかかる生体認証装置の機能構成)
実施例2にかかる生体認証装置1Aは、実施例1にかかる生体認証装置1と比較して、正規化部120に代えて正規化部120Aを有する(図4参照)。
(Functional configuration of biometric authentication device according to Example 2)
The
(実施例2にかかる生体認証装置の正規化部の詳細)
図20は、実施例2にかかる生体認証装置の正規化部の詳細の一例を示す機能ブロック図である。実施例2にかかる生体認証装置1Aの正規化部120Aは、実施例1にかかる正規化部120と比較して、1位確定部132が省略され、回転部135に代えて回転部135−1を有する。なお、正規化部120Aは、画像処理装置の一例である。
(Details of the Normalization Unit of the Biometric Authentication Device According to Example 2)
FIG. 20 is a functional block diagram showing a detailed example of the normalization unit of the biometric authentication device according to the second embodiment. In the
また、実施例2において、確信度算出部126、角度算出画像作成部127、補助情報抽出部128、補助情報確信度算出部129、角度算出部1_130、確信度再算出部131、回転部135−1は、手のひら部分推定部125により推定された手のひら部分候補が複数(N個)である場合、この複数の手のひら部分候補毎に行う一連の処理を、全ての手のひら部分候補について完了するまで繰り返して行う。
Further, in the second embodiment, the
回転部135−1は、確信度再算出部131により修正確信度が算出された手のひら部分候補に基づく推定角度および補正情報に応じて手のひら部分画像を回転させることにより、手のひら静脈画像を作成するための元画像を生成する。この場合、手のひら静脈画像を作成するための元画像は、手のひら部分推定部125により推定された複数の手のひら部分候補毎に生成されることになる。また、回転部135−1は、角度算出部2_134により手のひらの向きや傾きが算出された手のひら画像を、その手のひらの向きや傾きに応じて回転させることにより、手のひら静脈画像を作成するための元画像を生成する。
The rotating unit 135-1 creates a palm vein image by rotating the palm portion image according to the estimated angle and correction information based on the palm portion candidate whose correction certainty is calculated by the
以上、確信度算出部126、角度算出画像作成部127、補助情報抽出部128、補助情報確信度算出部129、角度算出部1_130、確信度再算出部131、回転部135−1により、手のひら部分推定部125により推定されたN個の手のひら部分候補毎に行なわれる一連の処理が、全ての手のひら部分候補について完了すると、正規化部120Aは、回転部135−1により生成された手のひら静脈画像を作成するための元画像を出力する。
As described above, the palm part is formed by the
なお、回転部135−1は、手のひら全体画像および手のひら部分画像の推定角度、補正情報、修正確信度の少なくともいずれかを、手のひら静脈画像を作成するための元画像とともに出力してもよい。 The rotating unit 135-1 may output at least one of the estimated angle, correction information, and correction certainty of the entire palm image and the partial palm image together with the original image for creating the palm vein image.
(実施例2にかかる正規化処理)
図21は、実施例2にかかる正規化処理の一例を示すフローチャートである。実施例2にかかる正規化処理は、実施例1にかかる正規化処理と比較して、確信度再算出部131により修正確信度が算出される都度、手のひら部分推定部125により推定された複数の手のひら部分候補のうちの該当の手のひら部分候補に基づく推定角度および補正情報に応じて、手のひら部分画像が回転される。
(Normalization processing according to Example 2)
FIG. 21 is a flowchart showing an example of the normalization process according to the second embodiment. In the normalization process according to the second embodiment, as compared with the normalization process according to the first embodiment, each time the correction certainty is calculated by the
図21に示すように、確信度算出部126、角度算出画像作成部127、補助情報抽出部128、補助情報確信度算出部129、角度算出部1_130、確信度再算出部131、回転部135−1は、手のひら部分推定部125により推定されたN個の手のひら部分候補について手のひら部分候補毎に行なわれる一連のステップS108〜ステップS115aの処理を、全ての手のひら部分候補について行う。
As shown in FIG. 21, the
すなわち、回転部135−1は、ステップS113で確信度再算出部131により修正確信度kn’が算出されると、ステップS108で選択された手のひら部分候補に基づく推定角度および補正情報に応じて手のひら部分画像を回転させることにより、手のひら静脈画像を作成するための元画像を生成する。
That is, the rotation unit 135-1, when the corrected confidence k n 'by
そして、確信度算出部126、角度算出画像作成部127、補助情報抽出部128、補助情報確信度算出部129、角度算出部1_130、確信度再算出部131、確信度再算出部131は、手のひら部分推定部125により推定された複数の手のひら部分候補のうちのステップS108で未選択の手のひら部分候補全てについて、ステップS108〜ステップS113の処理を行う。正規化部120Aは、ステップS108で最後に選択された手のひら部分候補についてステップS115aの処理が終了すると、実施例2にかかる正規化処理を終了する。
Then, the
他方、ステップS115bでは、回転部135−1は、ステップS122もしくはステップS124で角度算出処理された手のひら画像を、その推定角度に応じて回転させ、角度を補正することにより、手のひら静脈画像を作成するための元画像を生成する。ステップS115bが終了すると、正規化部120Aは、実施例2にかかる正規化処理を終了する。
On the other hand, in step S115b, the rotating unit 135-1 creates a palm vein image by rotating the palm image whose angle has been calculated in step S122 or step S124 according to the estimated angle and correcting the angle. Generate the original image for. When step S115b is completed, the
上述の実施例で示した各装置または機器の構成要素は機能概念的なものであり、必ずしも物理的に図示のように構成されていることを要しない。すなわち、各装置の分散または統合の具体的状態は図示のものに限られず、その全部または一部を、処理負荷や処理効率性などに応じて、任意の単位で機能的または物理的に、分散または統合して構成することができる。 The components of each device or device shown in the above-described embodiment are functional concepts, and do not necessarily have to be physically configured as shown in the figure. That is, the specific state of distribution or integration of each device is not limited to the one shown in the figure, and all or part of the distribution or integration is functionally or physically distributed in arbitrary units according to the processing load and processing efficiency. Or it can be integrated and configured.
例えば、確信度算出部126、補助情報確信度算出部129、確信度再算出部131の少なくとも2つは、統合されてもよい。また、角度算出部1_130および角度算出部2_134は、統合されてもよい。
For example, at least two of the
また、生体認証装置1、1Aの各処理部にて行なわれる各処理機能は、その全部または任意の一部が、マイクロコンピュータなどの半導体処理装置および半導体処理装置にて解析実行されるプログラムにて実現されうる。
Further, each processing function performed in each processing unit of the
以上の実施例で例示した各部の構成は、開示技術にかかる画像処理装置、画像処理方法および画像処理プログラムの技術範囲を逸脱しない程度に変更、追加または省略可能である。また、実施例はあくまで例示に過ぎず、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の態様も、開示の技術に含まれる。 The configuration of each part illustrated in the above examples can be changed, added or omitted to the extent that it does not deviate from the technical scope of the image processing apparatus, the image processing method and the image processing program according to the disclosed technology. In addition, the examples are merely examples, and the disclosed technology also includes other aspects described in the disclosure column of the invention and various modifications and improvements based on the knowledge of those skilled in the art. ..
1、1A 生体認証装置
100 処理装置
110 撮像部
120、120A 正規化部
121 全体判定部
122 左右判定部
123 左右指定部
124 手全体推定部
125 手のひら部分推定部
126 確信度算出部
127 角度算出画像作成部
128 補助情報抽出部
129 補助情報確信度算出部
130 角度算出部1
131 確信度再算出部
132 1位確定部
133 手のひら取出部
134 角度算出部2
135、135−1 回転部
140 特徴抽出部
150 登録部
160 照合部
200 撮像素子
300 発光素子
400 測距用発光素子
500 撮像DB
600 候補DB
1, 1A
131
135, 135-1
600 candidate DB
Claims (7)
前記判定部により前記撮像画像に前記生体部分の一部が含まれると判定された場合に、前記生体部分の一部が、前記生体部分の全体のうちのいずれの部分であるかを推定する推定部と、
前記推定部により前記生体部分の一部が前記生体部分の全体のうちのいずれの部分であるかが推定された前記撮像画像から、前記生体部分の角度を特徴付ける情報を強調した角度算出画像を作成する角度算出画像作成部と、
前記角度算出画像作成部により作成された角度算出画像における前記角度を特徴付ける情報からベクトルを生成し、生成したベクトルをもとに、所定の基準方向に対する前記生体部分の角度を算出する角度算出部と、
を備えたことを特徴とする画像処理装置。 A determination unit for determining whether the living body part is the whole or a part from the captured image captured including the whole or a part of the living body part.
When the determination unit determines that the captured image includes a part of the living body part, it is estimated which part of the living body part is a part of the whole living body part. Department and
An angle calculation image emphasizing information that characterizes the angle of the living body part is created from the captured image in which a part of the living body part is estimated by the estimation unit as a part of the whole living body part. Angle calculation image creation unit and
An angle calculation unit that generates a vector from the information that characterizes the angle in the angle calculation image created by the angle calculation image creation unit, and calculates the angle of the living body portion with respect to a predetermined reference direction based on the generated vector. ,
An image processing device characterized by being equipped with.
前記角度算出部は、前記角度算出画像における前記強い情報毎および前記弱い情報毎にベクトルを生成し、前記強い情報から生成したベクトルをもとに前記所定の基準方向に対する前記生体部分の角度を算出するとともに、前記弱い情報から生成したベクトルをもとに前記算出した前記生体部分の角度を補正する、
ことを特徴とする請求項1に記載の画像処理装置。 The information that characterizes the angle of the living body portion includes strong information having an intensity of a predetermined value or more and weak information having an intensity of less than the predetermined value.
The angle calculation unit generates a vector for each of the strong information and the weak information in the angle calculation image, and calculates the angle of the living body portion with respect to the predetermined reference direction based on the vector generated from the strong information. At the same time, the angle of the living body portion calculated above is corrected based on the vector generated from the weak information.
The image processing apparatus according to claim 1.
ことを特徴とする請求項1または2に記載の画像処理装置。 The angle calculation unit divides the angle calculation image into a plurality of areas, and generates a vector from the information characterizing the angle for each divided area.
The image processing apparatus according to claim 1 or 2.
前記角度算出画像作成部は、前記部分候補毎に、前記撮像画像から前記角度算出画像を作成し、
前記角度算出部は、前記部分候補毎に、前記角度算出画像における前記角度を特徴付ける情報からベクトルを生成する、
ことを特徴とする請求項1〜3のいずれか1項に記載の画像処理装置。 The estimation unit estimates a plurality of partial candidates indicating which part of the whole living body part is a part of the living body part.
The angle calculation image creation unit creates the angle calculation image from the captured image for each of the partial candidates, and creates the angle calculation image.
The angle calculation unit generates a vector for each of the partial candidates from the information that characterizes the angle in the angle calculation image.
The image processing apparatus according to any one of claims 1 to 3.
前記確信度算出部により算出された確からしさに基づいて前記所定の基準方向に対する前記生体部分の角度を確定させる確定部と、
をさらに備えたことを特徴とする請求項4に記載の画像処理装置。 For each of the partial candidates, a confidence calculation unit that calculates the certainty of the palm portion indicated by the partial candidate, and
A confirmation unit that determines the angle of the living body portion with respect to the predetermined reference direction based on the certainty calculated by the certainty calculation unit.
The image processing apparatus according to claim 4, further comprising.
生体部分の全体または一部が含まれて撮像された撮像画像から、前記生体部分の全体または一部のいずれであるかを判定し、
前記撮像画像に前記生体部分の一部が含まれると判定された場合に、前記生体部分の一部が、前記生体部分の全体のうちのいずれの部分であるかを推定し、
前記生体部分の一部が前記生体部分の全体のうちのいずれの部分であるかが推定された前記撮像画像から、前記生体部分の角度を特徴付ける情報を強調した角度算出画像を作成し、
前記角度算出画像における前記角度を特徴付ける情報からベクトルを生成し、生成したベクトルをもとに、所定の基準方向に対する前記生体部分の角度を算出する、
各処理を含んだことを特徴とする画像処理方法。 This is an image processing method performed by an image processing device.
From the captured image captured including the whole or a part of the living body part, it is determined whether it is the whole or a part of the living body part.
When it is determined that the captured image includes a part of the living body part, it is estimated which part of the whole living body part is the part of the living body part.
From the captured image in which it is estimated which part of the living body part is a part of the whole living body part, an angle calculation image emphasizing the information characterizing the angle of the living body part is created.
A vector is generated from the information that characterizes the angle in the angle calculation image, and the angle of the living body portion with respect to a predetermined reference direction is calculated based on the generated vector.
An image processing method characterized by including each processing.
生体部分の全体または一部が含まれて撮像された撮像画像から、前記生体部分の全体または一部のいずれであるかを判定する判定部と、
前記判定部により前記撮像画像に前記生体部分の一部が含まれると判定された場合に、前記生体部分の一部が、前記生体部分の全体のうちのいずれの部分であるかを推定する推定部と、
前記推定部により前記生体部分の一部が前記生体部分の全体のうちのいずれの部分であるかが推定された前記撮像画像から、前記生体部分の角度を特徴付ける情報を強調した角度算出画像を作成する角度算出画像作成部と、
前記角度算出画像作成部により作成された角度算出画像における前記角度を特徴付ける情報からベクトルを生成し、生成したベクトルをもとに、所定の基準方向に対する前記生体部分の角度を算出する角度算出部、
として機能させるための画像処理プログラム。 Computer,
A determination unit for determining whether the living body part is the whole or a part from the captured image captured including the whole or a part of the living body part.
When the determination unit determines that the captured image includes a part of the living body part, it is estimated which part of the living body part is a part of the whole living body part. Department and
An angle calculation image emphasizing information that characterizes the angle of the living body part is created from the captured image in which a part of the living body part is estimated by the estimation unit as a part of the whole living body part. Angle calculation image creation unit and
An angle calculation unit that generates a vector from the information that characterizes the angle in the angle calculation image created by the angle calculation image creation unit, and calculates the angle of the living body portion with respect to a predetermined reference direction based on the generated vector.
An image processing program to function as.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017220380A JP6840652B2 (en) | 2017-11-15 | 2017-11-15 | Image processing equipment, image processing method and image processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017220380A JP6840652B2 (en) | 2017-11-15 | 2017-11-15 | Image processing equipment, image processing method and image processing program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019091311A JP2019091311A (en) | 2019-06-13 |
JP6840652B2 true JP6840652B2 (en) | 2021-03-10 |
Family
ID=66836411
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017220380A Active JP6840652B2 (en) | 2017-11-15 | 2017-11-15 | Image processing equipment, image processing method and image processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6840652B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7001079B2 (en) | 2019-05-14 | 2022-01-19 | 横河電機株式会社 | Current measuring device |
CN115104056A (en) * | 2020-03-25 | 2022-09-23 | 索尼集团公司 | Lens optical system, light receiving device, and distance measuring system |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4692174B2 (en) * | 2005-09-14 | 2011-06-01 | 株式会社日立製作所 | Personal authentication device and door opening / closing system |
WO2014142171A1 (en) * | 2013-03-13 | 2014-09-18 | 富士通フロンテック株式会社 | Image processing device, image processing method, and program |
JP6364828B2 (en) * | 2014-03-10 | 2018-08-01 | 富士通株式会社 | Biometric authentication device and portable electronic device |
JP2015225354A (en) * | 2014-05-26 | 2015-12-14 | 株式会社モフィリア | Biometric authentication device, biometric authentication method, biometric authentication program, and electronic apparatus |
JP5888390B2 (en) * | 2014-11-07 | 2016-03-22 | 富士通株式会社 | Biometric authentication device |
KR102415504B1 (en) * | 2015-06-30 | 2022-07-04 | 삼성전자주식회사 | Updating method and apparatus of registration database for user authentication |
-
2017
- 2017-11-15 JP JP2017220380A patent/JP6840652B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2019091311A (en) | 2019-06-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7769209B2 (en) | Biometric authentication method and biometric authentication apparatus | |
CN106326327B (en) | Method and apparatus for updating user authentication data | |
JP5445584B2 (en) | Biometric authentication apparatus, biometric authentication method, and biometric authentication computer program | |
JP6565230B2 (en) | User authentication method, system, and program | |
JP5504928B2 (en) | Biometric authentication device, biometric authentication method, and program | |
US8503736B2 (en) | Registration device and registration method for biometric authentication, authentication device and authentication method for biometric authentication | |
US9129145B2 (en) | Identification apparatus, identification method, and program | |
JP4305431B2 (en) | Image processing apparatus, mask creation method and program | |
US8891837B2 (en) | Noncontact biometric identification device | |
JP2018026108A (en) | Object tracking method, object tracking device, and program | |
JP6751072B2 (en) | Biometric system | |
US20120098948A1 (en) | Fingerprint authentication apparatus having a plurality of fingerprint sensors and method for same | |
US20120328165A1 (en) | Biometric authentication apparatus and biometric authentication method | |
JP2006012080A (en) | Biological information authentication device | |
JP6840652B2 (en) | Image processing equipment, image processing method and image processing program | |
Zhang et al. | Adaptive orientation model fitting for latent overlapped fingerprints separation | |
US20140226875A1 (en) | Method of searching for parameterized contours for comparing irises | |
JP6908843B2 (en) | Image processing equipment, image processing method, and image processing program | |
JPWO2014132570A1 (en) | Authentication apparatus, authentication method, and computer program | |
WO2018030048A1 (en) | Object tracking method, object tracking device, and program | |
WO2009008550A1 (en) | Registering apparatus, collaiting apparatus, data structure, and storage medium | |
JP6671133B2 (en) | Image matching device and image matching method | |
KR20080053247A (en) | Image processing device, image judgment method, and program | |
JP2016125995A (en) | Three-dimensional shape measurement device, three-dimensional shape measurement method and program | |
JP5729029B2 (en) | Identification device and identification method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191213 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210128 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210209 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210217 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6840652 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |