JP2020101927A - Image identification device, identifier learning method, image identification method and program - Google Patents
Image identification device, identifier learning method, image identification method and program Download PDFInfo
- Publication number
- JP2020101927A JP2020101927A JP2018238800A JP2018238800A JP2020101927A JP 2020101927 A JP2020101927 A JP 2020101927A JP 2018238800 A JP2018238800 A JP 2018238800A JP 2018238800 A JP2018238800 A JP 2018238800A JP 2020101927 A JP2020101927 A JP 2020101927A
- Authority
- JP
- Japan
- Prior art keywords
- image
- cropped
- cropped image
- identification
- discriminator
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 89
- 238000012545 processing Methods 0.000 claims abstract description 41
- 230000004913 activation Effects 0.000 claims description 33
- 230000003902 lesion Effects 0.000 claims description 15
- 238000010801 machine learning Methods 0.000 claims description 5
- 238000012986 modification Methods 0.000 description 15
- 230000004048 modification Effects 0.000 description 15
- 230000006870 function Effects 0.000 description 13
- 238000013527 convolutional neural network Methods 0.000 description 12
- 201000003385 seborrheic keratosis Diseases 0.000 description 11
- 206010039796 Seborrhoeic keratosis Diseases 0.000 description 10
- 238000010586 diagram Methods 0.000 description 10
- 201000001441 melanoma Diseases 0.000 description 10
- 238000004891 communication Methods 0.000 description 6
- 201000010099 disease Diseases 0.000 description 6
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 6
- 206010027145 Melanocytic naevus Diseases 0.000 description 3
- 208000009077 Pigmented Nevus Diseases 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000003211 malignant effect Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 208000017520 skin disease Diseases 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 241000894006 Bacteria Species 0.000 description 1
- 206010028980 Neoplasm Diseases 0.000 description 1
- 206010000496 acne Diseases 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000001000 micrograph Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000012827 research and development Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
本発明は、画像識別装置、識別器学習方法、画像識別方法及びプログラムに関する。 The present invention relates to an image identifying device, a discriminator learning method, an image identifying method, and a program.
画像を識別する技術として、識別結果が判明している画像データを学習データとして用いて、ディープニューラルネットワーク(Deep Neural Network:DNN)を学習させ、学習済みのDNNを用いて画像識別する技術が知られている。画像識別技術においては、識別対象となる画像に特段の制限はなく、任意の画像データを識別対象とすることができるが、画像データに目盛り等が一緒に写り込んでいる場合がある。例えば、皮膚疾患等の患部を撮影する場合、患部のサイズを明確にするために目盛り等を一緒に撮影する場合が多い。また、患部の画像に限らず、例えば、花の画像等、対象物のサイズを明確にしたい画像の場合には、目盛り等を一緒に撮影した方がサイズがわかりやすいので、このような場合、学習用の画像データにも目盛り等が一緒に写り込んでいることが多い。 As a technique for identifying an image, a technique for learning a deep neural network (DNN) by using image data whose identification result is known as learning data and using the learned DNN is known. Has been. In the image identification technology, there is no particular limitation on the image to be identified and any image data can be identified, but in some cases, a scale or the like may be included in the image data. For example, when an affected area such as a skin disease is imaged, a scale or the like is often imaged together to clarify the size of the affected area. Also, not only the image of the affected area, but for example, in the case of an image such as a flower image in which it is desired to clarify the size of the object, it is easier to understand the size by photographing the scales together. In many cases, scales and the like are also included in the image data for the image.
この場合、一緒に写り込んだ目盛り等が画像識別に悪影響を与えてしまうことが考えられることから、例えば、非特許文献1においては、疾患領域である前景画像をクロップし、リサイズして画像分類する技術が提案されている。 In this case, it is conceivable that the scales and the like reflected together may adversely affect the image identification. Therefore, in Non-Patent Document 1, for example, the foreground image that is a disease region is cropped and resized to classify the image. The technology to do is proposed.
非特許文献1に記載されている技術によれば、疾患領域をクロップし(切り取り)、リサイズすることにより、画像に写り込んだ目盛り等の影響を低減することができるが、元画像のアスペクト比、サイズ等の情報が失われてしまうことから、画像識別の精度が下がってしまうという問題があった。 According to the technique described in Non-Patent Document 1, the influence of the scale and the like reflected in the image can be reduced by cropping (cutting) and resizing the diseased region, but the aspect ratio of the original image However, since the information such as the size is lost, there is a problem that the accuracy of image identification is lowered.
本発明は、上記問題を解決するためになされたものであり、画像識別の精度の向上を図ることができる画像識別装置、識別器学習方法、画像識別方法及びプログラムを提供することを目的とする。 The present invention has been made to solve the above problems, and an object of the present invention is to provide an image identification device, an identifier learning method, an image identification method, and a program that can improve the accuracy of image identification. ..
上記目的を達成するため、本発明の画像識別装置は、
入力画像から識別対象領域を含む画像を切り取る処理であるクロップ処理を行ったクロップ画像を生成するクロップ画像生成部と、
前記入力画像から前記クロップ処理を行っていない非クロップ画像を生成する非クロップ画像生成部と、
前記クロップ画像を識別するクロップ画像識別器と、
前記非クロップ画像を識別する非クロップ画像識別器と、
前記クロップ画像識別器による識別結果と、前記非クロップ画像識別器による識別結果と、の両者を用いて最終的な識別結果を取得する識別結果決定部と、
を備える。
In order to achieve the above object, the image identifying apparatus of the present invention,
A cropped image generation unit that generates a cropped image that has been cropped, which is a process of cutting out an image including an identification target region from an input image,
A non-cropped image generation unit that generates a non-cropped image from which the crop processing has not been performed from the input image,
A cropped image identifier for identifying the cropped image,
A non-cropped image discriminator that identifies the non-cropped image,
A discrimination result by the cropped image discriminator, a discrimination result by the non-cropped image discriminator, and a discrimination result determination unit that obtains a final discrimination result using both of them.
Equipped with.
本発明によれば、画像識別の精度の向上を図ることができる。 According to the present invention, the accuracy of image identification can be improved.
以下、本発明の実施形態に係る画像識別装置等について、図表を参照して説明する。なお、図中同一又は相当部分には同一符号を付す。 Hereinafter, an image identification device and the like according to the embodiments of the present invention will be described with reference to the drawings. The same or corresponding parts in the drawings are designated by the same reference numerals.
(実施形態1)
本発明の実施形態1に係る画像識別装置100は、識別対象の領域をクロップした画像で学習させたDNN識別器と、クロップしない画像で学習させたDNNによる識別器と、を用いて未知の画像を識別する。画像識別装置100は、このような2種類のDNNによる識別器の出力を両方とも用いることで、画像識別の精度を向上させることができる。このような画像識別装置100について、以下に説明する。
(Embodiment 1)
The image identification apparatus 100 according to the first embodiment of the present invention uses the DNN discriminator trained with the image obtained by cropping the region to be discriminated and the discriminator based on the DNN trained with the non-cropped image to obtain an unknown image. Identify. The image identifying apparatus 100 can improve the accuracy of image identification by using both the outputs of the discriminators based on such two types of DNNs. Such an image identification device 100 will be described below.
実施形態1に係る画像識別装置100は、図1に示すように、制御部10、記憶部20、画像入力部31、出力部32、通信部33、操作入力部34、を備える。
As shown in FIG. 1, the image identifying apparatus 100 according to the first embodiment includes a
制御部10は、CPU(Central Processing Unit)等で構成され、記憶部20に記憶されたプログラムを実行することにより、後述する各部(クロップ画像生成部11、非クロップ画像生成部12、クロップ画像識別器13、非クロップ画像識別器14、識別結果決定部15)の機能を実現する。
The
記憶部20は、ROM(Read Only Memory)、RAM(Random Access Memory)等で構成され、制御部10のCPUが実行するプログラム及び必要なデータを記憶する。
The
画像入力部31は、学習用の画像データ又は識別する(未知の)画像データを入力するためのデバイスである。制御部10は、画像入力部31を介して画像データを取得する。画像入力部31としては、制御部10が画像データを取得できるなら、任意のデバイスを使用することができる。例えば、記憶部20に画像データを記憶させておき、制御部10が記憶部20を読み出すことによって画像データを取得する場合は、記憶部20が画像入力部31を兼ねることになる。また、制御部10が通信部33を介して外部のサーバ等から画像データを取得する場合は、通信部33が画像入力部31を兼ねることになる。
The
出力部32は、制御部10が、画像入力部31から入力した画像を識別した結果等を出力するためのデバイスである。例えば、出力部32は、液晶ディスプレイや有機EL(Electoro−Luminescence)ディスプレイである。この場合、出力部32は、表示部として機能する。ただし、画像識別装置100は、出力部32としてこのようなディスプレイ(表示部)を備えてもよいし、外部のディスプレイを接続するためのインタフェースとしての出力部32を備えてもよい。画像識別装置100は、インタフェースとしての出力部32を備える場合は、出力部32を介して接続した外部のディスプレイに識別結果等を表示する。出力部32は、出力手段として機能する。
The
通信部33は、外部の他の装置(例えば、画像データのデータベースが格納されているサーバ等)とデータの送受信を行うためのデバイス(ネットワークインタフェース等)である。制御部10は、通信部33を介して画像データを取得することができる。
The
操作入力部34は、画像識別装置100に対するユーザの操作入力を受け付けるデバイスであり、例えば、キーボード、マウス、タッチパネル等である。画像識別装置100は、操作入力部34を介して、ユーザからの指示等を受け付ける。操作入力部34は、操作入力手段として機能する。
The
次に、制御部10の機能について説明する。制御部10は、クロップ画像生成部11、非クロップ画像生成部12、クロップ画像識別器13、非クロップ画像識別器14、識別結果決定部15、の機能を実現する。
Next, the function of the
クロップ画像生成部11は、画像入力部31を介して入力された入力画像から識別対象領域を取得し、取得した該識別対象領域にマージン領域を加えた正方形画像を切り取り(クロップし)、それをクロップ画像識別器13の入力サイズにリサイズした画像(クロップ画像)を生成する。クロップ画像生成部11が、入力画像から識別対象領域を含む画像を切り取る処理をクロップ処理と言う。
The cropped
非クロップ画像生成部12は、画像入力部31を介して入力された入力画像にHPF(High Pass Filter)処理を施すことによって、エッジを強調した画像(非クロップ画像)を生成する。なお、非クロップ画像生成部12は、HPF処理以外の処理によってエッジを強調した画像を生成してもよい。
The non-cropped
クロップ画像識別器13及び非クロップ画像識別器14は、どちらもDNNの一種である畳み込みニューラルネットワーク(Convolutional Neural Network:CNN)による画像の識別器である。制御部10が、CNNによる識別器を実現するプログラムを実行することにより、制御部10はクロップ画像識別器13としても機能し、また、非クロップ画像識別器14としても機能する。
The cropped
クロップ画像識別器13は、クロップ画像生成部11が生成したクロップ画像が入力される入力層と、入力されたクロップ画像の識別結果が出力される出力層と、入力層及び出力層以外の層である中間層と、を有し、クロップ画像を識別した結果を出力層から出力する。
The cropped
非クロップ画像識別器14は、非クロップ画像生成部12が生成した非クロップ画像が入力される入力層と、入力された非クロップ画像の識別結果が出力される出力層と、入力層及び出力層以外の層である中間層と、を有し、非クロップ画像を識別した結果を出力層から出力する。
The
識別結果決定部15は、クロップ画像識別器13からの出力(クロップ画像の識別結果)と、非クロップ画像識別器14からの出力(非クロップ画像の識別結果)と、の両者を用いて最終的な識別結果を得る。基本的には、識別結果決定部15は、クロップ画像識別器13からの出力と非クロップ画像識別器14からの出力とを単純に加算平均して最終的な識別結果を得る。しかし、これに限定されるものではない。識別結果決定部15は、最終的な識別結果を得る際に、クロップ画像識別器13からの出力と非クロップ画像識別器14からの出力とを、それぞれに所定の重みを乗算して、加重平均を取ってもよい。識別結果決定部15は、識別結果決定手段として機能する。
The discrimination result
以上、画像識別装置100の機能構成について説明した。次に、クロップ画像や非クロップ画像を用いてCNN(クロップ画像識別器13及び非クロップ画像識別器14)を学習させる処理について、説明する。
The functional configuration of the image identifying apparatus 100 has been described above. Next, a process of learning the CNN (the cropped
まず、クロップ画像を用いてクロップ画像識別器13を学習させるクロップ画像学習処理について、図2を参照して説明する。この処理は、クロップ画像識別器13を学習させる際に実行される。また、この処理を実行する前に、正解ラベルを付けた学習用画像データを用意しておく必要がある。正解ラベルとは、その正解ラベルが付いた画像が何の画像かを示すものであり、例えば、疾患画像を入力すると疾患名を出力するCNNを用意したいのであれば、「疾患名」を正解ラベルとして各学習用画像データに付けておく必要がある。別の例として、花の画像の画像を入力するとその花の名称を出力するCNNを用意したいのであれば、「花の名称」を正解ラベルとして各学習用画像データに付けておく必要がある。
First, a cropped image learning process for learning the cropped
まず、制御部10は、画像入力部31を介して学習用画像データを取得する(ステップS101)。そして、クロップ画像生成部11は、後述するクロップ画像生成処理を行って、ステップS101で取得した学習用画像データからクロップ画像を生成する(ステップS102)。ステップS102は、クロップ画像生成ステップとも呼ばれる。
First, the
次に、制御部10は、クロップ画像生成部11が生成したクロップ画像をクロップ画像識別器13に入力し、学習用画像データに付けられていた正解ラベルに基づいて、クロップ画像識別器13を学習させる(ステップS103)。ステップS103は、クロップ画像学習ステップとも呼ばれる。
Next, the
そして、制御部10は、学習を終了するか否かを判定する(ステップS104)。例えば、学習用画像データを予め決められた枚数(例えばM枚)学習させたら学習を終了する。学習させていない学習用画像データが残っている場合等、学習を終了しないなら(ステップS104;No)、ステップS101に戻る。学習を終了するなら(ステップS104;Yes)、クロップ画像学習処理を終了する。
Then, the
次に、上記ステップS102で行われるクロップ画像生成処理について、図3のフローチャートと図4の具体例を参照して説明する。この処理は、与えられた入力画像からクロップ画像を生成する処理である。 Next, the cropped image generation process performed in step S102 will be described with reference to the flowchart of FIG. 3 and the specific example of FIG. This process is a process of generating a cropped image from a given input image.
まず、クロップ画像生成部11は、与えられた入力画像から、識別対象となる領域を取得する(ステップS111)。与えられた入力画像の例として、図4の左上の図では、識別対象1011(例えば疾患画像)と目盛り1012が写っている入力画像1010が示されている。そして、図4の右上の図では、クロップ画像生成部11が取得した識別対象となる領域1020が示されている。識別対象となる領域の取得方法は任意であるが、例えば、クロップ画像生成部11は、予め機械学習で得られた識別対象領域判定器により自動的に領域1020を抽出(及び取得)する。このような識別対象領域判定器は、例えば、学習用の教師データとして、画像データとその画像に対応する前景マップ(識別対象領域の正解データを人間が作成したもの)を大量に用意しておき、この教師データをCNNに入力して学習させることによって、作成することができる。
First, the cropped
識別対象となる領域の取得に関しては、上述したような機械学習による方法に限定されるわけではない。ユーザが操作入力部34を介して入力画像1010中の識別対象となる領域1020を指定し、ユーザが指定した領域1020をクロップ画像生成部11が取得してもよい。また、機械学習等により自動的に抽出した領域1020をユーザが操作入力部34を介して修正可能にしておき、ユーザが修正した識別対象領域をクロップ画像生成部11が取得するようにしてもよい。
The acquisition of the area to be identified is not limited to the method by machine learning as described above. The user may specify the
次に、クロップ画像生成部11は、ステップS111で取得した識別対象の領域に外接する矩形領域を抽出する(ステップS112)。図4の左真ん中の図では、識別対象1011に外接する矩形領域1030が抽出されている様子が示されている。この矩形領域1030は、正方形でなくてもよい。
Next, the cropped
そして、クロップ画像生成部11は、ステップS112で抽出した矩形領域にマージン領域を付加した正方形領域をクロップ(切り取り)する(ステップS113)。なお、上述の矩形領域1030が長方形だった場合には、マージンの縦横の量を調節することによってクロップする領域を正方形にする。図4の右真ん中の図では、矩形領域1030に斜線で表したマージン領域1041を付加した正方形領域1040が示されているが、この正方形領域1040がクロップされる(切り取られる)ことになる。
Then, the cropped
マージン領域1041の大きさを規定するマージン1042の長さは、矩形領域1030の大きさに応じて変化させてもよいし、一定の長さに設定してもよい。矩形領域1030の大きさに応じて変化させる場合は、例えば「矩形領域1030の一辺の長さの10%」等と設定すればよい。また、矩形領域1030が長辺と短辺とからなる長方形の領域の場合は、例えば「長辺側は矩形領域1030の長辺の長さの10%のマージンを両側に付加し、短辺側はマージンを付加した長辺の長さに合わせるように両側に付加する」等と設定すればよい。
The length of the
そして、クロップ画像生成部11は、ステップS113でクロップした正方形領域を、CNN(クロップ画像識別器13)の入力サイズに合わせてリサイズし(ステップS114)、処理を終了する。このリサイズされた正方形領域の画像がクリップ画像である。図4の左下の図では、リサイズされた正方形領域1050が示されているが、これは、ステップS113で切り出された正方形領域1040がリサイズされて拡大されたものである。正方形領域1050に含まれている識別対象1011も正方形領域1050と同じ倍率でリサイズされるので、拡大された状態になっている。
Then, the cropped
以上のクロップ画像生成処理により、入力画像に含まれる識別対象がクローズアップされたクロップ画像が生成される。そして、生成されたクロップ画像を用いて、上述のクロップ画像学習処理により、クロップ画像識別器13が学習されることになる。
By the above crop image generation processing, a crop image in which the identification target included in the input image is close-up is generated. Then, the
次に、非クロップ画像を用いて非クロップ画像識別器14を学習させる非クロップ画像学習処理について、図5を参照して説明する。この処理は、非クロップ画像識別器14を学習させる際に実行される。上述のクロップ画像学習処理と同様、非クロップ画像学習処理を実行する前に、正解ラベルを付けた学習用画像データを用意しておく必要があるが、この学習データは、上述のクロップ画像学習処理で用いた学習データと同一のデータでよい。
Next, a non-cropped image learning process for learning the
まず、制御部10は、画像入力部31を介して学習用画像データを取得する(ステップS201)。そして、非クロップ画像生成部12は、後述する非クロップ画像生成処理を行って、ステップS201で取得した学習用画像データから非クロップ画像を生成する(ステップS202)。ステップS202は、非クロップ画像生成ステップとも呼ばれる。
First, the
次に、制御部10は、非クロップ画像生成部12が生成した非クロップ画像を非クロップ画像識別器14に入力し、学習用画像データに付けられていた正解ラベルに基づいて、非クロップ画像識別器14を学習させる(ステップS203)。ステップS203は、非クロップ画像学習ステップとも呼ばれる。
Next, the
そして、制御部10は、学習を終了するか否かを判定する(ステップS204)。例えば、学習用画像データを予め決められた枚数(例えばM枚)学習させたら学習を終了する。学習させていない学習用画像データが残っている場合等、学習を終了しないなら(ステップS204;No)、ステップS201に戻る。学習を終了するなら(ステップS204;Yes)、非クロップ画像学習処理を終了する。
Then, the
次に、上記ステップS202で行われる非クロップ画像生成処理について、図6のフローチャートと図7の具体例を参照して説明する。この処理は、与えられた入力画像から非クロップ画像を生成する処理である。 Next, the non-cropped image generation processing performed in step S202 will be described with reference to the flowchart of FIG. 6 and the specific example of FIG. 7. This process is a process of generating a non-cropped image from a given input image.
まず、非クロップ画像生成部12は、与えられた入力画像にHPF処理(エッジ強調処理)を行う(ステップS211)。与えられた入力画像の例として、図7の上の図では、識別対象1011(例えば疾患画像)と目盛り1012が写っている入力画像1010が示されている。そして、図7の真ん中の図では、入力画像1010がHPF処理されたことによって、エッジ強調された識別対象1061と、エッジ強調された目盛り1062と、を含む画像1060になったことが示されている。
First, the non-cropped
次に非クロップ画像生成部12は、HPF処理した入力画像の両サイドをカットして(これをサイドカット処理という)、正方形領域を切り出し(ステップS212)、処理を終了する。図7の下の図では、正方形領域1070が示されているが、これは図7の真ん中の図にある画像1060の両サイドを点線1063でカットしたものである。
Next, the non-cropped
以上の非クロップ画像生成処理により、入力画像のエッジが強調された非クロップ画像が生成される。そして、生成された非クロップ画像を用いて、上述の非クロップ画像学習処理により、非クロップ画像識別器14が学習されることになる。
By the above non-cropped image generation processing, the non-cropped image in which the edge of the input image is emphasized is generated. Then, the
以上のようにして、クロップ画像識別器13と非クロップ画像識別器14を学習させることにより、画像識別装置100は、未知の入力画像を識別できるようになる。次に、未知の入力画像を識別する識別処理について、図8を参照して説明する。この処理は、未知の画像を識別する際に実行される。
By learning the cropped
まず、制御部10は、画像入力部31を介して画像識別装置100に識別を行わせる未知画像を取得する(ステップS301)。
First, the
次に、クロップ画像生成部11は、上述したクロップ画像生成処理(図3)により、ステップS301で取得した未知画像からクロップ画像を生成する(ステップS302)。そして、制御部10は、生成されたクロップ画像をクロップ画像識別器13に入力して、クロップ画像識別器13の出力値を取得する(ステップS303)。ステップS303は、クロップ画像識別ステップとも呼ばれる。
Next, the crop
次に、非クロップ画像生成部12は、上述した非クロップ画像生成処理(図6)により、ステップS301で取得した未知画像から非クロップ画像を生成する(ステップS304)。そして、制御部10は、生成された非クロップ画像を非クロップ画像識別器14に入力して、非クロップ画像識別器14の出力値を取得する(ステップS305)。ステップS305は、非クロップ画像識別ステップとも呼ばれる。なお、ステップS302からステップS303の処理と、ステップS304からステップS305の処理とは、並行に処理を進めてもよいし、図8とは逆にステップS304からステップS305の処理を、ステップS302からステップS303の処理に先行して行ってもよい。
Next, the non-cropped
そして、識別結果決定部15は、ステップS303で取得したクロップ画像識別器13の出力値とステップS305で取得した非クロップ画像識別器14の出力値とを加算平均して、最終的な識別結果を決定する(ステップS306)。ステップS306は、識別結果決定ステップとも呼ばれる。
Then, the discrimination
そして、制御部10は、識別結果決定部15が決定した最終的な識別結果を出力部32に出力し(ステップS307)、処理を終了する。なお、ステップS307では、制御部10は、最終的な識別結果だけでなく、クロップ画像識別器13の出力及び非クロップ画像識別器14の出力をも出力部32に出力してもよい。
Then, the
以上説明した識別処理により、画像識別装置100は、クロップ画像と非クロップ画像を両方とも用いることによって、識別精度の向上を図ることができる。また、クロップ画像生成部11では、識別対象領域をマージン領域を付加して切り出しているため、識別対象領域の端部(例えば病変領域境界のエッジ部分)を失う危険性を大幅に減らすことができる。しかも、クロップ画像生成部11では、クロップ画像の生成時に正方形で切り出しているため、画像のアスペクト比が保たれ、クロップ画像識別器13においては、アスペクト比も識別のための情報として利用できる。
By the identification processing described above, the image identification apparatus 100 can improve the identification accuracy by using both the cropped image and the non-cropped image. In addition, since the cropped
具体例として、図9に示すように、脂漏性角化症の病変領域1101を含む入力画像1100をクロップ画像識別器13と非クロップ画像識別器14のそれぞれに入力して、CAM(Class Activation Mapping)による活性化マップを作成すると、クロップ画像識別器13では中央領域を中心に活性反応を示し、非クロップ画像識別器14では病変領域全体に活性反応を示すことが確認できる。これは、クロップ画像識別器13の場合は、必ず中央領域に病変領域が存在することが期待されるのに対し、非クロップ画像識別器14では必ずしも中央領域に病変領域が存在することが期待できないので、非クロップ画像識別器14では病変領域判定も含めて処理をしなければならないという違いによるものと考えられる。
As a specific example, as shown in FIG. 9, an
なお、図9に示す活性化マップ1110は、入力画像1100をクロップ画像識別器13に入力した際の各症例(メラノーマ(MM)、脂漏性角化症(SK)、色素性母斑(NCN))のCAMによる活性化領域を示した図である。そして、図9に示す活性化マップ1120は、入力画像1100を非クロップ画像識別器14に入力した際の各症例のCAMによる活性化領域を示した図である。どちらの図も、活性度が高い領域ほど黒く示されている。また、図9には、各識別器による各症例のスコア(出力値)も示されている。
In addition, the
図9に示されているように、クロップ画像識別器13による各症例のスコアは、メラノーマ(MM)が0.0890、脂漏性角化症(SK)が0.8681、色素性母斑(NCN))が0.0429であり、非クロップ画像識別器14による各症例のスコアは、メラノーマ(MM)が0.3145、脂漏性角化症(SK)が0.5713、色素性母斑(NCN))が0.1142である。
As shown in FIG. 9, the score of each case by the
図9に示す症例のように、病変領域の大きい症例画像の場合、(一般的に悪性症例の方が病変領域のサイズが大きいので)非クロップ画像識別器14のスコアは悪性側(MM側)に傾く傾向があり、図9においても、非クロップ画像識別器14によるメラノーマ(MM)のスコア(0.3145)は比較的高い値になっている。しかし、クロップ画像識別器13では、病変領域の大きさが正規化されているため、病変領域の大きさに依存せず、病変領域内部の構造が重視されて識別が行われる。したがって、図9に示す例では、クロップ画像識別器13が、脂漏性角化症(SK)の所見である白い点(稗粒腫様?腫)や、黒い点(面皰様開大)を検出した結果、脂漏性角化症(SK)のスコア(0.8681)が高くなったものと推測される。
In the case of a case image with a large lesion area as in the case shown in FIG. 9, the score of the
このように、画像識別装置100は、クロップ画像識別器13が識別対象領域の内部構造を重視して識別を行い、非クロップ画像識別器14が入力画像全体から捉えられる特徴によって識別を行うと考えられ、この両方の識別結果を用いて最終的な識別結果を決定するため、識別精度を向上させることができる。
As described above, in the image identifying apparatus 100, it is considered that the cropped
(変形例1)
実施形態1では、クロップ画像生成部11は、人手で作成した前景マップを用いて機械学習した識別対象領域判定器により、識別対象となる領域を自動的に抽出した。しかし、識別対象となる領域を自動的に抽出する方法として、図9に示したような活性化マップを用いる方法もある。この変形例1について説明する。
(Modification 1)
In the first embodiment, the cropped
変形例1に係る画像識別装置100の機能構成は実施形態1と同じく、図1で示されるものである。ただし、変形例1では、制御部10は、クロップ画像学習処理を行う前に、まず、非クロップ画像学習処理(図5)を行って、非クロップ画像識別器14を学習済みにしておく。そして、クロップ画像生成処理(図3)のステップS111において、制御部10は、まず、入力画像を非クロップ画像識別器14に入力して、非クロップ画像識別器14の活性化マップを取得する。そして、活性化マップで、所定の基準値以上に活性化している領域を識別対象領域として抽出する。
The functional configuration of the image identifying apparatus 100 according to the first modification is the same as that of the first embodiment, as shown in FIG. However, in the first modification, the
活性化マップの生成方法にはいくつかの種類があるが、図9に示したようなCAMによる活性化マップや、Grad−CAM(Gradient−weighted Class Activation Mapping)による活性化マップの場合は、識別クラス毎の活性化マップが得られるので、識別クラス毎に得られた各活性化マップを全て加算して平均を取った活性化マップ(ここでは「総合活性化マップ」と呼ぶことにする)を用いて識別対象領域を抽出する。例えば、総合活性化マップの全ての要素の平均値を求め、総合活性化マップ上で、値が当該平均値以上になっている部分を識別対象領域とする。 There are several types of activation map generation methods, but in the case of an activation map by CAM as shown in FIG. 9 or an activation map by Grad-CAM (Gradient-weighted Class Activation Mapping), identification is performed. Since the activation map for each class can be obtained, the activation map obtained by adding all the activation maps obtained for each identification class and taking the average (referred to as "total activation map" here) The identification target area is extracted by using. For example, the average value of all the elements of the total activation map is obtained, and the portion on the total activation map whose value is equal to or more than the average value is set as the identification target area.
活性化マップの生成において、CAMやGrad−CAMを用いるのではなく、単純にCNNの出力層の直前の全結合層の直前の中間層の各要素(特徴マップ)をチャネル方向に平均したものを活性化マップとする活性化マップ生成方法もある。このような活性化マップを用いる場合は、この活性化マップを上述の総合活性化マップと同様に扱うことができる。例えば、この活性化マップの全ての要素の平均値を求め、該活性化マップ上で、値が当該平均値以上になっている部分を識別対象領域とする。 In generating the activation map, instead of using CAM or Grad-CAM, simply averaging each element (feature map) of the intermediate layer immediately before the fully connected layer immediately before the CNN output layer in the channel direction is used. There is also an activation map generation method that uses an activation map. When such an activation map is used, this activation map can be treated in the same manner as the above-mentioned comprehensive activation map. For example, the average value of all the elements of the activation map is obtained, and the portion on the activation map whose value is equal to or more than the average value is set as the identification target area.
変形例1に係る画像識別装置100は、クロップ画像生成処理(図3)のステップS111において、活性化マップを用いて識別対象領域を抽出する点以外は、実施形態1に係る画像識別装置100と同じである。変形例1に係る画像識別装置100は、実施形態1に係る画像識別装置100が備える効果に加え、識別対象領域を抽出するための判定器の学習を別途行う必要がない(非クロップ画像識別器14を学習させることによって、非クロップ画像識別器14が識別対象領域を抽出するための判定器にも利用可能になる)という効果がある。
The image identifying apparatus 100 according to the first modification is the same as the image identifying apparatus 100 according to the first embodiment except that the identification target area is extracted using the activation map in step S111 of the cropped image generation process (FIG. 3 ). Is the same. The image identifying apparatus 100 according to the modified example 1 does not need to separately perform the learning of the determiner for extracting the identification target area in addition to the effect provided in the image identifying apparatus 100 according to the first embodiment (non-cropped image identifyr).
(変形例2)
実施形態1では、識別結果決定部15は、クロップ画像識別器13からの出力と非クロップ画像識別器14からの出力との平均(加算平均や加重平均)を取ることにより最終的な識別結果を得ていた。しかし、これに限定されるものではない。識別結果決定部15は、クロップ画像識別器13の出力層と、非クロップ画像識別器14の出力層と、を連結して全結合層に入力し、該全結合層を介した新たな出力層によって最終的な識別結果を得てもよい。このような変形例2について説明する。
(Modification 2)
In the first embodiment, the classification
変形例2に係る画像識別装置100の機能構成は実施形態1と同じく、図1で示されるものである。変形例2に係る識別結果決定部15は、図10に示すように、クロップ画像識別器13の出力層1301と、非クロップ画像識別器14の出力層1401と、を連結して全結合層として、新たな出力層1501に接続して最終的な識別結果を得る。
The functional configuration of the image identifying apparatus 100 according to the modified example 2 is the same as that of the first embodiment and is shown in FIG. As shown in FIG. 10, the discrimination
変形例2では、識別結果決定部15の出力層1501についても、ニューラルネットの学習を行う必要がある。このための全体学習処理について、図11を参照して説明する。この処理は、クロップ画像学習処理(図2)及び非クロップ画像学習処理(図5)が完了した後に行うと、学習時間の短縮を図ることができる。しかし、クロップ画像学習処理(図2)や非クロップ画像学習処理(図5)を行う前に全体学習処理を行うことも可能であり、この場合は、全体学習処理が完了した時点で、クロップ画像識別器13及び非クロップ画像識別器14の学習も完了していることになるため、別途クロップ画像学習処理(図2)及び非クロップ画像学習処理(図5)を行う必要はなくなる。
In the second modification, the
まず、制御部10は、画像入力部31を介して学習用画像データを取得する(ステップS401)。そして、クロップ画像生成部11は、クロップ画像生成処理(図3)を行って、ステップS401で取得した学習用画像データからクロップ画像を生成する(ステップS402)。また、非クロップ画像生成部12は、非クロップ画像生成処理(図6)を行って、ステップS401で取得した学習用画像データから非クロップ画像を生成する(ステップS403)。なお、ステップS402とステップS403とは、並行に処理を進めてもよいし、図11とは逆にステップS403の処理をステップS402の処理より先に行ってもよい。
First, the
そして、制御部10は、図10に示すようなクロップ画像識別器13と非クロップ画像識別器14とを接続したCNNにおいて、クロップ画像生成部11が生成したクロップ画像(正方形領域1050)をクロップ画像識別器13に入力し、非クロップ画像生成部12が生成した非クロップ画像(正方形領域1070)を非クロップ画像識別器14に入力し、学習用画像データに付けられていた正解ラベルに基づいて、出力層1301と出力層1401とを連結した全結合層と識別結果決定部15の出力層1501との間の全結合接続の重みを学習させる(ステップS404)。
The
そして、制御部10は、学習を終了するか否かを判定する(ステップS405)。例えば、学習用画像データを予め決められた枚数(例えばM枚)学習させたら学習を終了する。学習させていない学習用画像データが残っている場合等、学習を終了しないなら(ステップS405;No)、ステップS401に戻る。学習を終了するなら(ステップS405;Yes)、全体学習処理を終了する。
Then, the
以上のようにして、識別結果決定部15の出力層1501へのニューラルネットを学習させることにより、変形例2に係る画像識別装置100は、未知の入力画像を識別できるようになる。次に、変形例2に係る画像識別装置100で未知の入力画像を識別する識別処理について、図12を参照して説明する。この処理は、未知の画像を識別する際に実行される。
As described above, by learning the neural net to the
まず、制御部10は、画像入力部31を介して画像識別装置100に識別を行わせる未知画像を取得する(ステップS501)。
First, the
そして、クロップ画像生成部11は、クロップ画像生成処理(図3)を行って、ステップS501で取得した未知画像からクロップ画像を生成する(ステップS502)。また、非クロップ画像生成部12は、非クロップ画像生成処理(図6)を行って、ステップS501で取得した未知画像から非クロップ画像を生成する(ステップS503)。なお、ステップS502とステップS503とは、並行に処理を進めてもよいし、図12とは逆にステップS503の処理をステップS502の処理より先に行ってもよい。
Then, the cropped
そして、識別結果決定部15は、図10に示すようなクロップ画像識別器13と非クロップ画像識別器14とを接続したCNNにおいて、クロップ画像生成部11が生成したクロップ画像をクロップ画像識別器13に入力し、非クロップ画像生成部12が生成した非クロップ画像を非クロップ画像識別器14に入力する。そして、出力層1501に出力される出力値によって、最終的な識別結果を決定する(ステップS504)。
Then, in the CNN in which the cropped
そして、制御部10は、識別結果決定部15が決定した最終的な識別結果を出力部32に出力し(ステップS505)、処理を終了する。なお、ステップS505では、制御部10は、最終的な識別結果だけでなく、クロップ画像識別器13の出力(図10の出力層1301の各要素の値)及び非クロップ画像識別器14の出力(図10の出力層1401の各要素の値)をも出力部32に出力してもよい。
Then, the
以上説明した識別処理により、変形例2に係る画像識別装置100は、クロップ画像と非クロップ画像を両方とも用いることによって、識別精度の向上を図ることができる。 By the identification processing described above, the image identification apparatus 100 according to the modified example 2 can improve the identification accuracy by using both the cropped image and the non-cropped image.
なお、上述の実施形態及び変形例では、CNNによる識別器を実現するプログラムを制御部10が実行することにより、制御部10はクロップ画像識別器13や非クロップ画像識別器14としても機能することとしていたが、これに限られない。画像識別装置100は、制御部10とは別に(例えば、GPU(Graphics Processing Unit)や、専用のIC(Integrated Circuit)等の)クロップ画像識別器13や非クロップ画像識別器14の機能を実現するデバイスを備えてもよい。
In the above-described embodiment and modification, the
また、上述の実施形態1では主に皮膚の疾患を例にとって説明したが、本発明は皮膚科の分野に限定されるものではなく、広く一般の画像識別の分野において適用可能である。例えば、花の識別、細菌の顕微鏡写真の識別等にも適用できる。 Further, in the above-described first embodiment, a skin disease has been mainly described as an example, but the present invention is not limited to the field of dermatology, and can be widely applied to the field of general image identification. For example, it can be applied to identification of flowers, identification of micrographs of bacteria, and the like.
また、上述の実施形態及び変形例は適宜組み合わせることができる。例えば、変形例1と変形例2とを組み合わせることにより、活性化マップで識別対象となる領域を自動的に抽出し、図10に示すようにクロップ画像識別器13と非クロップ画像識別器14とを接続して出力層1501から最終的な識別結果を取得する画像識別装置100を構成してもよい。
Further, the above-described embodiments and modified examples can be combined appropriately. For example, by combining Modification 1 and Modification 2, a region to be identified in the activation map is automatically extracted, and the cropped
また、上述の実施形態及び変形例では、非クロップ画像生成部12が、入力画像のエッジを強調した画像を生成するものとして説明したが、これに限られない。非クロップ画像生成部12は、入力画像をクロップしないことが重要であり、入力画像をそのまま非クロップ画像としてもよい。
Further, although the non-cropped
なお、画像識別装置100の各機能は、通常のPC(Personal Computer)等のコンピュータによっても実施することができる。具体的には、上記実施形態では、画像識別装置100が行う画像識別処理のプログラムが、記憶部20のROMに予め記憶されているものとして説明した。しかし、プログラムを、フレキシブルディスク、CD−ROM(Compact Disc Read Only Memory)、DVD(Digital Versatile Disc)、MO(Magneto−Optical Disc)、メモリカード、USB(Universal Serial Bus)メモリ等のコンピュータ読み取り可能な記録媒体に格納して配布し、そのプログラムをコンピュータに読み込んでインストールすることにより、上述の各機能を実現することができるコンピュータを構成してもよい。
Each function of the image identifying apparatus 100 can be implemented by a computer such as a normal PC (Personal Computer). Specifically, in the above embodiment, the program of the image identification processing performed by the image identification device 100 is described as being stored in the ROM of the
以上、本発明の好ましい実施形態について説明したが、本発明は係る特定の実施形態に限定されるものではなく、本発明には、特許請求の範囲に記載された発明とその均等の範囲が含まれる。以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。 Although the preferred embodiments of the present invention have been described above, the present invention is not limited to the specific embodiments, and the present invention includes the inventions described in the claims and their equivalents. Be done. The inventions described in the initial claims of the present application will be additionally described below.
(付記1)
入力画像から識別対象領域を含む画像を切り取る処理であるクロップ処理を行ったクロップ画像を生成するクロップ画像生成部と、
前記入力画像から前記クロップ処理を行っていない非クロップ画像を生成する非クロップ画像生成部と、
前記クロップ画像を識別するクロップ画像識別器と、
前記非クロップ画像を識別する非クロップ画像識別器と、
前記クロップ画像識別器による識別結果と、前記非クロップ画像識別器による識別結果と、の両者を用いて最終的な識別結果を取得する識別結果決定部と、
を備える画像識別装置。
(Appendix 1)
A cropped image generation unit that generates a cropped image that has been cropped, which is a process of cutting out an image including an identification target region from an input image,
A non-cropped image generation unit that generates a non-cropped image from which the crop processing has not been performed from the input image,
A cropped image identifier for identifying the cropped image,
A non-cropped image discriminator that identifies the non-cropped image,
A discrimination result by the cropped image discriminator, a discrimination result by the non-cropped image discriminator, and a discrimination result determination unit that obtains a final discrimination result using both of them.
An image identification device including.
(付記2)
前記クロップ画像生成部は、前記入力画像から前記識別対象領域を取得し、前記識別対象領域に所定のマージン領域を含めた画像として、前記クロップ画像を生成する、
付記1に記載の画像識別装置。
(Appendix 2)
The cropped image generation unit acquires the identification target area from the input image, and generates the cropped image as an image including a predetermined margin area in the identification target area,
The image identification device according to attachment 1.
(付記3)
前記クロップ画像生成部は、機械学習で得られた識別対象領域判定器により前記識別対象領域を取得する、
付記2に記載の画像識別装置。
(Appendix 3)
The cropped image generation unit acquires the identification target area by an identification target area determiner obtained by machine learning,
The image identification device according to attachment 2.
(付記4)
前記クロップ画像生成部は、前記非クロップ画像識別器の活性化マップで活性化している領域を抽出することにより前記識別対象領域を取得する、
付記2に記載の画像識別装置。
(Appendix 4)
The cropped image generation unit acquires the classification target area by extracting a region activated in an activation map of the non-cropped image classification device,
The image identification device according to attachment 2.
(付記5)
前記非クロップ画像生成部は、前記入力画像に対してエッジ強調処理及びサイドカット処理を行った画像として、前記非クロップ画像を生成する、
付記1から4のいずれか1つに記載の画像識別装置。
(Appendix 5)
The non-cropped image generation unit generates the non-cropped image as an image obtained by performing edge enhancement processing and sidecut processing on the input image,
The image identification device according to any one of appendices 1 to 4.
(付記6)
前記非クロップ画像生成部は、前記入力画像を前記非クロップ画像とする、
付記1から4のいずれか1つに記載の画像識別装置。
(Appendix 6)
The non-cropped image generation unit, the input image is the non-cropped image,
The image identification device according to any one of appendices 1 to 4.
(付記7)
前記識別結果決定部は、前記クロップ画像識別器の出力値と前記非クロップ画像識別器の出力値との平均を求めることによって、最終的な識別結果を取得する、
付記1から6のいずれか1つに記載の画像識別装置。
(Appendix 7)
The discrimination result determining unit obtains a final discrimination result by obtaining an average of an output value of the cropped image discriminator and an output value of the non-cropped image discriminator,
The image identification device according to any one of appendices 1 to 6.
(付記8)
前記識別結果決定部は、前記クロップ画像識別器の出力層と前記非クロップ画像識別器の出力層とを連結して全結合層を構成し、前記全結合層を介した出力層によって、最終的な識別結果を取得する、
付記1から6のいずれか1つに記載の画像識別装置。
(Appendix 8)
The discrimination result determination unit connects the output layer of the cropped image discriminator and the output layer of the non-cropped image discriminator to form a fully combined layer, and an output layer through the fully combined layer finally provides Get the identification result,
The image identification device according to any one of appendices 1 to 6.
(付記9)
さらに、前記クロップ画像識別器の出力値と、前記非クロップ画像識別器の出力値と、を表示する表示部を備える、
付記1から8のいずれか1つに記載の画像識別装置。
(Appendix 9)
Further, a display unit for displaying the output value of the cropped image classifier and the output value of the non-cropped image classifier,
The image identification device according to any one of appendices 1 to 8.
(付記10)
前記識別対象領域は病変領域である、
付記1から9のいずれか1つに記載の画像識別装置。
(Appendix 10)
The identification target area is a lesion area,
The image identification device according to any one of appendices 1 to 9.
(付記11)
入力画像から識別対象領域を含む画像を切り取る処理であるクロップ処理を行ったクロップ画像を生成するクロップ画像生成ステップと、
前記入力画像から前記クロップ処理を行っていない非クロップ画像を生成する非クロップ画像生成ステップと、
前記クロップ画像でクロップ画像識別器を学習させるクロップ画像学習ステップと、
前記非クロップ画像で非クロップ画像識別器を学習させる非クロップ画像学習ステップと、
を含む識別器学習方法。
(Appendix 11)
A cropped image generation step of generating a cropped image that has been cropped, which is a process of cutting out an image including an identification target area from the input image;
A non-cropped image generation step for generating a non-cropped image from which the crop processing has not been performed, from the input image;
A crop image learning step of learning a crop image identifier with the crop image,
A non-cropped image learning step of learning a non-cropped image identifier with the non-cropped image,
A classifier learning method including.
(付記12)
入力画像から識別対象領域を含む画像を切り取る処理であるクロップ処理を行ったクロップ画像を生成するクロップ画像生成ステップと、
前記入力画像から前記クロップ処理を行っていない非クロップ画像を生成する非クロップ画像生成ステップと、
前記クロップ画像を識別するクロップ画像識別ステップと、
前記非クロップ画像を識別する非クロップ画像識別ステップと、
前記クロップ画像識別ステップによる識別結果と、前記非クロップ画像識別ステップによる識別結果と、の両者を用いて最終的な識別結果を取得する識別結果決定ステップと、
を含む画像識別方法。
(Appendix 12)
A cropped image generation step of generating a cropped image that has been cropped, which is a process of cutting out an image including an identification target area from the input image;
A non-cropped image generation step for generating a non-cropped image from which the crop processing has not been performed, from the input image;
A cropped image identifying step for identifying the cropped image,
A non-cropped image identifying step for identifying the non-cropped image,
An identification result determination step of obtaining a final identification result using both the identification result by the cropped image identification step and the identification result by the non-cropped image identification step,
Image identification method including.
(付記13)
画像識別装置のコンピュータに、
入力画像から識別対象領域を含む画像を切り取る処理であるクロップ処理を行ったクロップ画像を生成するクロップ画像生成ステップ、
前記入力画像から前記クロップ処理を行っていない非クロップ画像を生成する非クロップ画像生成ステップ、
前記クロップ画像を識別するクロップ画像識別ステップ、
前記非クロップ画像を識別する非クロップ画像識別ステップ、及び、
前記クロップ画像識別ステップによる識別結果と、前記非クロップ画像識別ステップによる識別結果と、の両者を用いて最終的な識別結果を取得する識別結果決定ステップ、
を実行させるためのプログラム。
(Appendix 13)
In the computer of the image identification device,
A cropped image generation step of generating a cropped image that has been cropped, which is a process of cutting out an image including an identification target area from an input image,
A non-cropped image generation step of generating a non-cropped image from which the crop processing has not been performed from the input image,
A cropped image identifying step of identifying the cropped image,
A non-cropped image identifying step for identifying the non-cropped image, and
An identification result determination step of obtaining a final identification result by using both the identification result by the cropped image identification step and the identification result by the non-cropped image identification step,
A program to execute.
10…制御部、11…クロップ画像生成部、12…非クロップ画像生成部、13…クロップ画像識別器、14…非クロップ画像識別器、15…識別結果決定部、20…記憶部、31…画像入力部、32…出力部、33…通信部、34…操作入力部、100…画像識別装置、1010,1100…入力画像、1011,1061…識別対象、1012,1062…目盛り、1020…領域、1030…矩形領域、1040,1050,1070…正方形領域、1041…マージン領域、1042…マージン、1060…画像、1063…点線、1101…病変領域、1110,1120…活性化マップ、1301,1401,1501…出力層 10... Control unit, 11... Crop image generation unit, 12... Non-cropped image generation unit, 13... Crop image discriminator, 14... Non-cropped image discriminator, 15... Discrimination result determination unit, 20... Storage unit, 31... Image Input unit, 32... Output unit, 33... Communication unit, 34... Operation input unit, 100... Image identification device, 1010, 1100... Input image, 1011, 1061... Identification target, 1012, 1062... Scale, 1020... Region, 1030 ... rectangular area, 1040, 1050, 1070... square area, 1041... margin area, 1042... margin, 1060... image, 1063... dotted line, 1101... lesion area, 1110, 1120... activation map, 1301, 1401, 1501... output layer
Claims (13)
前記入力画像から前記クロップ処理を行っていない非クロップ画像を生成する非クロップ画像生成部と、
前記クロップ画像を識別するクロップ画像識別器と、
前記非クロップ画像を識別する非クロップ画像識別器と、
前記クロップ画像識別器による識別結果と、前記非クロップ画像識別器による識別結果と、の両者を用いて最終的な識別結果を取得する識別結果決定部と、
を備える画像識別装置。 A cropped image generation unit that generates a cropped image that has been cropped, which is a process of cutting out an image including an identification target region from an input image,
A non-cropped image generation unit that generates a non-cropped image from which the crop processing has not been performed from the input image,
A cropped image identifier for identifying the cropped image,
A non-cropped image discriminator that identifies the non-cropped image,
A discrimination result by the cropped image discriminator, a discrimination result by the non-cropped image discriminator, and a discrimination result determination unit that obtains a final discrimination result using both of them.
An image identification device including.
請求項1に記載の画像識別装置。 The cropped image generation unit acquires the identification target area from the input image, and generates the cropped image as an image including a predetermined margin area in the identification target area,
The image identification device according to claim 1.
請求項2に記載の画像識別装置。 The cropped image generation unit acquires the identification target area by an identification target area determiner obtained by machine learning,
The image identification device according to claim 2.
請求項2に記載の画像識別装置。 The cropped image generation unit acquires the classification target area by extracting a region activated in an activation map of the non-cropped image classification device,
The image identification device according to claim 2.
請求項1から4のいずれか1項に記載の画像識別装置。 The non-cropped image generation unit generates the non-cropped image as an image obtained by performing edge enhancement processing and sidecut processing on the input image,
The image identification device according to claim 1.
請求項1から4のいずれか1項に記載の画像識別装置。 The non-cropped image generation unit, the input image is the non-cropped image,
The image identification device according to claim 1.
請求項1から6のいずれか1項に記載の画像識別装置。 The discrimination result determining unit obtains a final discrimination result by obtaining an average of an output value of the cropped image discriminator and an output value of the non-cropped image discriminator,
The image identification device according to claim 1.
請求項1から6のいずれか1項に記載の画像識別装置。 The discrimination result determination unit connects the output layer of the cropped image discriminator and the output layer of the non-cropped image discriminator to form a fully combined layer, and an output layer through the fully combined layer finally provides Get the identification result,
The image identification device according to claim 1.
請求項1から8のいずれか1項に記載の画像識別装置。 Further, a display unit for displaying the output value of the cropped image classifier and the output value of the non-cropped image classifier,
The image identification device according to claim 1.
請求項1から9のいずれか1項に記載の画像識別装置。 The identification target area is a lesion area,
The image identification device according to claim 1.
前記入力画像から前記クロップ処理を行っていない非クロップ画像を生成する非クロップ画像生成ステップと、
前記クロップ画像でクロップ画像識別器を学習させるクロップ画像学習ステップと、
前記非クロップ画像で非クロップ画像識別器を学習させる非クロップ画像学習ステップと、
を含む識別器学習方法。 A cropped image generation step of generating a cropped image that has been cropped, which is a process of cutting out an image including an identification target area from the input image;
A non-cropped image generation step for generating a non-cropped image from which the crop processing has not been performed, from the input image;
A crop image learning step of learning a crop image identifier with the crop image,
A non-cropped image learning step of learning a non-cropped image identifier with the non-cropped image,
A classifier learning method including.
前記入力画像から前記クロップ処理を行っていない非クロップ画像を生成する非クロップ画像生成ステップと、
前記クロップ画像を識別するクロップ画像識別ステップと、
前記非クロップ画像を識別する非クロップ画像識別ステップと、
前記クロップ画像識別ステップによる識別結果と、前記非クロップ画像識別ステップによる識別結果と、の両者を用いて最終的な識別結果を取得する識別結果決定ステップと、
を含む画像識別方法。 A cropped image generation step of generating a cropped image that has been cropped, which is a process of cutting out an image including an identification target area from the input image;
A non-cropped image generation step for generating a non-cropped image from which the crop processing has not been performed, from the input image;
A cropped image identifying step for identifying the cropped image,
A non-cropped image identifying step for identifying the non-cropped image,
An identification result determination step of obtaining a final identification result using both the identification result by the cropped image identification step and the identification result by the non-cropped image identification step,
Image identification method including.
入力画像から識別対象領域を含む画像を切り取る処理であるクロップ処理を行ったクロップ画像を生成するクロップ画像生成ステップ、
前記入力画像から前記クロップ処理を行っていない非クロップ画像を生成する非クロップ画像生成ステップ、
前記クロップ画像を識別するクロップ画像識別ステップ、
前記非クロップ画像を識別する非クロップ画像識別ステップ、及び、
前記クロップ画像識別ステップによる識別結果と、前記非クロップ画像識別ステップによる識別結果と、の両者を用いて最終的な識別結果を取得する識別結果決定ステップ、
を実行させるためのプログラム。 In the computer of the image identification device,
A cropped image generation step of generating a cropped image that has been cropped, which is a process of cutting out an image including an identification target area from an input image,
A non-cropped image generation step of generating a non-cropped image from which the crop processing has not been performed from the input image,
A cropped image identifying step of identifying the cropped image,
A non-cropped image identifying step for identifying the non-cropped image, and
An identification result determination step of obtaining a final identification result by using both the identification result by the cropped image identification step and the identification result by the non-cropped image identification step,
A program to execute.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018238800A JP7293644B2 (en) | 2018-12-20 | 2018-12-20 | Image identification device, classifier learning method, image identification method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018238800A JP7293644B2 (en) | 2018-12-20 | 2018-12-20 | Image identification device, classifier learning method, image identification method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020101927A true JP2020101927A (en) | 2020-07-02 |
JP7293644B2 JP7293644B2 (en) | 2023-06-20 |
Family
ID=71139601
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018238800A Active JP7293644B2 (en) | 2018-12-20 | 2018-12-20 | Image identification device, classifier learning method, image identification method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7293644B2 (en) |
Cited By (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022038855A1 (en) * | 2020-08-17 | 2022-02-24 | カシオ計算機株式会社 | Feature amount acquisition device, similar image search device, display device, feature amount acquisition method, similar image search method, display method, and program |
WO2022124224A1 (en) * | 2020-12-09 | 2022-06-16 | ブラザー工業株式会社 | Method, system, and computer program |
US11403069B2 (en) | 2017-07-24 | 2022-08-02 | Tesla, Inc. | Accelerated mathematical engine |
US11409692B2 (en) | 2017-07-24 | 2022-08-09 | Tesla, Inc. | Vector computational unit |
WO2022185473A1 (en) * | 2021-03-04 | 2022-09-09 | 日本電気株式会社 | Object detection model generation device, object detection model generation method, object detection device, object detection method, and recording medium |
US11487288B2 (en) | 2017-03-23 | 2022-11-01 | Tesla, Inc. | Data synthesis for autonomous control systems |
US11537811B2 (en) | 2018-12-04 | 2022-12-27 | Tesla, Inc. | Enhanced object detection for autonomous vehicles based on field view |
US11561791B2 (en) | 2018-02-01 | 2023-01-24 | Tesla, Inc. | Vector computational unit receiving data elements in parallel from a last row of a computational array |
US11562231B2 (en) | 2018-09-03 | 2023-01-24 | Tesla, Inc. | Neural networks for embedded devices |
US11567514B2 (en) | 2019-02-11 | 2023-01-31 | Tesla, Inc. | Autonomous and user controlled vehicle summon to a target |
US11610117B2 (en) | 2018-12-27 | 2023-03-21 | Tesla, Inc. | System and method for adapting a neural network model on a hardware platform |
US11636333B2 (en) | 2018-07-26 | 2023-04-25 | Tesla, Inc. | Optimizing neural network structures for embedded systems |
US11665108B2 (en) | 2018-10-25 | 2023-05-30 | Tesla, Inc. | QoS manager for system on a chip communications |
US11681649B2 (en) | 2017-07-24 | 2023-06-20 | Tesla, Inc. | Computational array microprocessor system using non-consecutive data formatting |
US11734562B2 (en) | 2018-06-20 | 2023-08-22 | Tesla, Inc. | Data pipeline and deep learning system for autonomous driving |
US11748620B2 (en) | 2019-02-01 | 2023-09-05 | Tesla, Inc. | Generating ground truth for machine learning from time series elements |
US11790664B2 (en) | 2019-02-19 | 2023-10-17 | Tesla, Inc. | Estimating object properties using visual image data |
US11816585B2 (en) | 2018-12-03 | 2023-11-14 | Tesla, Inc. | Machine learning models operating at different frequencies for autonomous vehicles |
US11841434B2 (en) | 2018-07-20 | 2023-12-12 | Tesla, Inc. | Annotation cross-labeling for autonomous control systems |
US11893774B2 (en) | 2018-10-11 | 2024-02-06 | Tesla, Inc. | Systems and methods for training machine models with augmented data |
US11893393B2 (en) | 2017-07-24 | 2024-02-06 | Tesla, Inc. | Computational array microprocessor system with hardware arbiter managing memory requests |
US12014553B2 (en) | 2019-02-01 | 2024-06-18 | Tesla, Inc. | Predicting three-dimensional features for autonomous driving |
US12136030B2 (en) | 2023-03-16 | 2024-11-05 | Tesla, Inc. | System and method for adapting a neural network model on a hardware platform |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10137221A (en) * | 1996-11-15 | 1998-05-26 | Oki Electric Ind Co Ltd | Individual identification system |
-
2018
- 2018-12-20 JP JP2018238800A patent/JP7293644B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10137221A (en) * | 1996-11-15 | 1998-05-26 | Oki Electric Ind Co Ltd | Individual identification system |
Non-Patent Citations (1)
Title |
---|
N. C. F. CODELLA ET AL.: "Deep learning ensembles for melanoma recognition in dermoscopy images", IBM JOURNAL OF RESEARCH AND DEVELOPMENT, vol. Vol. 61, No. 4/5, JPN6022055463, 8 September 2017 (2017-09-08), US, pages 5 - 1, ISSN: 0004955324 * |
Cited By (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US12020476B2 (en) | 2017-03-23 | 2024-06-25 | Tesla, Inc. | Data synthesis for autonomous control systems |
US11487288B2 (en) | 2017-03-23 | 2022-11-01 | Tesla, Inc. | Data synthesis for autonomous control systems |
US12086097B2 (en) | 2017-07-24 | 2024-09-10 | Tesla, Inc. | Vector computational unit |
US11893393B2 (en) | 2017-07-24 | 2024-02-06 | Tesla, Inc. | Computational array microprocessor system with hardware arbiter managing memory requests |
US11403069B2 (en) | 2017-07-24 | 2022-08-02 | Tesla, Inc. | Accelerated mathematical engine |
US11409692B2 (en) | 2017-07-24 | 2022-08-09 | Tesla, Inc. | Vector computational unit |
US11681649B2 (en) | 2017-07-24 | 2023-06-20 | Tesla, Inc. | Computational array microprocessor system using non-consecutive data formatting |
US11561791B2 (en) | 2018-02-01 | 2023-01-24 | Tesla, Inc. | Vector computational unit receiving data elements in parallel from a last row of a computational array |
US11797304B2 (en) | 2018-02-01 | 2023-10-24 | Tesla, Inc. | Instruction set architecture for a vector computational unit |
US11734562B2 (en) | 2018-06-20 | 2023-08-22 | Tesla, Inc. | Data pipeline and deep learning system for autonomous driving |
US11841434B2 (en) | 2018-07-20 | 2023-12-12 | Tesla, Inc. | Annotation cross-labeling for autonomous control systems |
US12079723B2 (en) | 2018-07-26 | 2024-09-03 | Tesla, Inc. | Optimizing neural network structures for embedded systems |
US11636333B2 (en) | 2018-07-26 | 2023-04-25 | Tesla, Inc. | Optimizing neural network structures for embedded systems |
US11983630B2 (en) | 2018-09-03 | 2024-05-14 | Tesla, Inc. | Neural networks for embedded devices |
US11562231B2 (en) | 2018-09-03 | 2023-01-24 | Tesla, Inc. | Neural networks for embedded devices |
US11893774B2 (en) | 2018-10-11 | 2024-02-06 | Tesla, Inc. | Systems and methods for training machine models with augmented data |
US11665108B2 (en) | 2018-10-25 | 2023-05-30 | Tesla, Inc. | QoS manager for system on a chip communications |
US11816585B2 (en) | 2018-12-03 | 2023-11-14 | Tesla, Inc. | Machine learning models operating at different frequencies for autonomous vehicles |
US11537811B2 (en) | 2018-12-04 | 2022-12-27 | Tesla, Inc. | Enhanced object detection for autonomous vehicles based on field view |
US11908171B2 (en) | 2018-12-04 | 2024-02-20 | Tesla, Inc. | Enhanced object detection for autonomous vehicles based on field view |
US11610117B2 (en) | 2018-12-27 | 2023-03-21 | Tesla, Inc. | System and method for adapting a neural network model on a hardware platform |
US11748620B2 (en) | 2019-02-01 | 2023-09-05 | Tesla, Inc. | Generating ground truth for machine learning from time series elements |
US12014553B2 (en) | 2019-02-01 | 2024-06-18 | Tesla, Inc. | Predicting three-dimensional features for autonomous driving |
US11567514B2 (en) | 2019-02-11 | 2023-01-31 | Tesla, Inc. | Autonomous and user controlled vehicle summon to a target |
US11790664B2 (en) | 2019-02-19 | 2023-10-17 | Tesla, Inc. | Estimating object properties using visual image data |
WO2022038855A1 (en) * | 2020-08-17 | 2022-02-24 | カシオ計算機株式会社 | Feature amount acquisition device, similar image search device, display device, feature amount acquisition method, similar image search method, display method, and program |
AU2021329483B2 (en) * | 2020-08-17 | 2023-11-23 | Casio Computer Co., Ltd. | Feature amount acquisition device, similar image search device, display device, feature amount acquisition method, similar image search method, display method, and program |
JP7056698B2 (en) | 2020-08-17 | 2022-04-19 | カシオ計算機株式会社 | Feature amount acquisition device, similar image search device, display device, feature amount acquisition method, similar image search method, display method and program |
JP2022033429A (en) * | 2020-08-17 | 2022-03-02 | カシオ計算機株式会社 | Feature amount acquisition device, similar image retrieval apparatus, display apparatus, feature amount acquisition method, similar image retrieval method, display method, and program |
WO2022124224A1 (en) * | 2020-12-09 | 2022-06-16 | ブラザー工業株式会社 | Method, system, and computer program |
WO2022185473A1 (en) * | 2021-03-04 | 2022-09-09 | 日本電気株式会社 | Object detection model generation device, object detection model generation method, object detection device, object detection method, and recording medium |
US12136030B2 (en) | 2023-03-16 | 2024-11-05 | Tesla, Inc. | System and method for adapting a neural network model on a hardware platform |
Also Published As
Publication number | Publication date |
---|---|
JP7293644B2 (en) | 2023-06-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2020101927A (en) | Image identification device, identifier learning method, image identification method and program | |
US10482603B1 (en) | Medical image segmentation using an integrated edge guidance module and object segmentation network | |
US11861829B2 (en) | Deep learning based medical image detection method and related device | |
US10410353B2 (en) | Multi-label semantic boundary detection system | |
Sarker et al. | SLSDeep: Skin lesion segmentation based on dilated residual and pyramid pooling networks | |
Amin et al. | Use of machine intelligence to conduct analysis of human brain data for detection of abnormalities in its cognitive functions | |
US10853409B2 (en) | Systems and methods for image search | |
Rahman et al. | A framework for fast automatic image cropping based on deep saliency map detection and gaussian filter | |
Reza et al. | Multi-fractal texture features for brain tumor and edema segmentation | |
JP2013192624A (en) | Medical image diagnosis supporting apparatus, medical image diagnosis supporting method and computer program | |
Jenitta et al. | Image retrieval based on local mesh vector co-occurrence pattern for medical diagnosis from MRI brain images | |
Katzmann et al. | Explaining clinical decision support systems in medical imaging using cycle-consistent activation maximization | |
CN112561877A (en) | Multi-scale double-channel convolution model training method, image processing method and device | |
Nguyen et al. | ASMCNN: An efficient brain extraction using active shape model and convolutional neural networks | |
Yanling et al. | Segmenting vitiligo on clinical face images using CNN trained on synthetic and internet images | |
Shanker et al. | Brain tumor segmentation of normal and lesion tissues using hybrid clustering and hierarchical centroid shape descriptor | |
Santos et al. | A new approach for fundus lesions instance segmentation based on mask r-cnn x101-fpn pre-trained architecture | |
Alhassan | An improved breast cancer classification with hybrid chaotic sand cat and Remora Optimization feature selection algorithm | |
CN113822846A (en) | Method, apparatus, device and medium for determining region of interest in medical image | |
Han et al. | Slim Scissors: Segmenting Thin Object from Synthetic Background | |
Ellis et al. | Classification of 2D Ultrasound Breast Cancer Images with Deep Learning | |
Gonçalves et al. | Deep aesthetic assessment of breast cancer surgery outcomes | |
Kang et al. | Dense dilated attentive network for automatic classification of femur trochanteric fracture | |
Siri et al. | An improved expectation-maximization algorithm to detect liver image boundary in ct scan images | |
CN112330652A (en) | Chromosome recognition method and device based on deep learning and computer equipment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211209 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221222 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230104 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230303 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230509 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230522 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7293644 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |