JP2020101927A - Image identification device, identifier learning method, image identification method and program - Google Patents

Image identification device, identifier learning method, image identification method and program Download PDF

Info

Publication number
JP2020101927A
JP2020101927A JP2018238800A JP2018238800A JP2020101927A JP 2020101927 A JP2020101927 A JP 2020101927A JP 2018238800 A JP2018238800 A JP 2018238800A JP 2018238800 A JP2018238800 A JP 2018238800A JP 2020101927 A JP2020101927 A JP 2020101927A
Authority
JP
Japan
Prior art keywords
image
cropped
cropped image
identification
discriminator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018238800A
Other languages
Japanese (ja)
Other versions
JP7293644B2 (en
Inventor
松永 和久
Kazuhisa Matsunaga
和久 松永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2018238800A priority Critical patent/JP7293644B2/en
Publication of JP2020101927A publication Critical patent/JP2020101927A/en
Application granted granted Critical
Publication of JP7293644B2 publication Critical patent/JP7293644B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

To improve the accuracy of image identification.SOLUTION: An image identification device 100 includes: a crop image generation part 11 for generating a crop image undergoing crop processing being processing for segmenting an image including an identification object area from an input image; a non-crop image generation part 12 for generating a non-crop image which does not undergo clop processing from the input image; a crop image identifier 13 for identifying the crop image; a non-crop image identifier 14 for identifying the non-crop image; and an identification result determination part 15 for acquiring a final identification result by using both an identification result by the crop image identifier 13 and an identification result by the non-crop image identifier 14.SELECTED DRAWING: Figure 1

Description

本発明は、画像識別装置、識別器学習方法、画像識別方法及びプログラムに関する。 The present invention relates to an image identifying device, a discriminator learning method, an image identifying method, and a program.

画像を識別する技術として、識別結果が判明している画像データを学習データとして用いて、ディープニューラルネットワーク(Deep Neural Network:DNN)を学習させ、学習済みのDNNを用いて画像識別する技術が知られている。画像識別技術においては、識別対象となる画像に特段の制限はなく、任意の画像データを識別対象とすることができるが、画像データに目盛り等が一緒に写り込んでいる場合がある。例えば、皮膚疾患等の患部を撮影する場合、患部のサイズを明確にするために目盛り等を一緒に撮影する場合が多い。また、患部の画像に限らず、例えば、花の画像等、対象物のサイズを明確にしたい画像の場合には、目盛り等を一緒に撮影した方がサイズがわかりやすいので、このような場合、学習用の画像データにも目盛り等が一緒に写り込んでいることが多い。 As a technique for identifying an image, a technique for learning a deep neural network (DNN) by using image data whose identification result is known as learning data and using the learned DNN is known. Has been. In the image identification technology, there is no particular limitation on the image to be identified and any image data can be identified, but in some cases, a scale or the like may be included in the image data. For example, when an affected area such as a skin disease is imaged, a scale or the like is often imaged together to clarify the size of the affected area. Also, not only the image of the affected area, but for example, in the case of an image such as a flower image in which it is desired to clarify the size of the object, it is easier to understand the size by photographing the scales together. In many cases, scales and the like are also included in the image data for the image.

この場合、一緒に写り込んだ目盛り等が画像識別に悪影響を与えてしまうことが考えられることから、例えば、非特許文献1においては、疾患領域である前景画像をクロップし、リサイズして画像分類する技術が提案されている。 In this case, it is conceivable that the scales and the like reflected together may adversely affect the image identification. Therefore, in Non-Patent Document 1, for example, the foreground image that is a disease region is cropped and resized to classify the image. The technology to do is proposed.

N. C. F. Codella ; Q. B. Nguyen ; S. Pankanti ; D. A. Gutman ; B. Helba ; A. C. Halpern ; J. R. Smith,“Deep learning ensembles for melanoma recognition in dermoscopy images”,IBM Journal of Research and Development, Volume.61 Issue 4/5, July-Sept. 2017, Pages:5:1-5:15NCF Codella ;QB Nguyen ;S. Pankanti ;DA Gutman ;B. Helba ;AC Halpern ;Jr Smith, "Deep learning ensembles for melanoma recognition in dermoscopy images", IBM Journal of Research and Development, Volume.61 Issue 4/5, July-Sept. 2017, Pages:5:1-5:15

非特許文献1に記載されている技術によれば、疾患領域をクロップし(切り取り)、リサイズすることにより、画像に写り込んだ目盛り等の影響を低減することができるが、元画像のアスペクト比、サイズ等の情報が失われてしまうことから、画像識別の精度が下がってしまうという問題があった。 According to the technique described in Non-Patent Document 1, the influence of the scale and the like reflected in the image can be reduced by cropping (cutting) and resizing the diseased region, but the aspect ratio of the original image However, since the information such as the size is lost, there is a problem that the accuracy of image identification is lowered.

本発明は、上記問題を解決するためになされたものであり、画像識別の精度の向上を図ることができる画像識別装置、識別器学習方法、画像識別方法及びプログラムを提供することを目的とする。 The present invention has been made to solve the above problems, and an object of the present invention is to provide an image identification device, an identifier learning method, an image identification method, and a program that can improve the accuracy of image identification. ..

上記目的を達成するため、本発明の画像識別装置は、
入力画像から識別対象領域を含む画像を切り取る処理であるクロップ処理を行ったクロップ画像を生成するクロップ画像生成部と、
前記入力画像から前記クロップ処理を行っていない非クロップ画像を生成する非クロップ画像生成部と、
前記クロップ画像を識別するクロップ画像識別器と、
前記非クロップ画像を識別する非クロップ画像識別器と、
前記クロップ画像識別器による識別結果と、前記非クロップ画像識別器による識別結果と、の両者を用いて最終的な識別結果を取得する識別結果決定部と、
を備える。
In order to achieve the above object, the image identifying apparatus of the present invention,
A cropped image generation unit that generates a cropped image that has been cropped, which is a process of cutting out an image including an identification target region from an input image,
A non-cropped image generation unit that generates a non-cropped image from which the crop processing has not been performed from the input image,
A cropped image identifier for identifying the cropped image,
A non-cropped image discriminator that identifies the non-cropped image,
A discrimination result by the cropped image discriminator, a discrimination result by the non-cropped image discriminator, and a discrimination result determination unit that obtains a final discrimination result using both of them.
Equipped with.

本発明によれば、画像識別の精度の向上を図ることができる。 According to the present invention, the accuracy of image identification can be improved.

本発明の実施形態1に係る画像識別装置の機能構成を示す図である。It is a figure which shows the function structure of the image identification apparatus which concerns on Embodiment 1 of this invention. 実施形態1に係るクロップ画像学習処理のフローチャートである。6 is a flowchart of a cropped image learning process according to the first embodiment. 実施形態1に係るクロップ画像生成処理のフローチャートである。6 is a flowchart of a cropped image generation process according to the first embodiment. クロップ画像生成処理を説明する図である。It is a figure explaining crop image generation processing. 実施形態1に係る非クロップ画像学習処理のフローチャートである。6 is a flowchart of a non-cropped image learning process according to the first embodiment. 実施形態1に係る非クロップ画像生成処理のフローチャートである。6 is a flowchart of non-cropped image generation processing according to the first embodiment. 非クロップ画像生成処理を説明する図である。It is a figure explaining non-cropped image generation processing. 実施形態1に係る識別処理のフローチャートである。6 is a flowchart of an identification process according to the first embodiment. 実施形態1に係る画像識別装置に病変領域を入力した時のクロップ画像識別器及び非クロップ画像識別器の活性化状況を説明する図である。FIG. 6 is a diagram illustrating activation states of a cropped image discriminator and a non-cropped image discriminator when a lesion area is input to the image discrimination device according to the first embodiment. 本発明の変形例2に係る識別結果決定部を説明する図である。It is a figure explaining the identification result determination part which concerns on the modification 2 of this invention. 変形例2に係る全体学習処理のフローチャートである。9 is a flowchart of overall learning processing according to Modification 2. 変形例2に係る識別処理のフローチャートである。9 is a flowchart of an identification process according to modification 2.

以下、本発明の実施形態に係る画像識別装置等について、図表を参照して説明する。なお、図中同一又は相当部分には同一符号を付す。 Hereinafter, an image identification device and the like according to the embodiments of the present invention will be described with reference to the drawings. The same or corresponding parts in the drawings are designated by the same reference numerals.

(実施形態1)
本発明の実施形態1に係る画像識別装置100は、識別対象の領域をクロップした画像で学習させたDNN識別器と、クロップしない画像で学習させたDNNによる識別器と、を用いて未知の画像を識別する。画像識別装置100は、このような2種類のDNNによる識別器の出力を両方とも用いることで、画像識別の精度を向上させることができる。このような画像識別装置100について、以下に説明する。
(Embodiment 1)
The image identification apparatus 100 according to the first embodiment of the present invention uses the DNN discriminator trained with the image obtained by cropping the region to be discriminated and the discriminator based on the DNN trained with the non-cropped image to obtain an unknown image. Identify. The image identifying apparatus 100 can improve the accuracy of image identification by using both the outputs of the discriminators based on such two types of DNNs. Such an image identification device 100 will be described below.

実施形態1に係る画像識別装置100は、図1に示すように、制御部10、記憶部20、画像入力部31、出力部32、通信部33、操作入力部34、を備える。 As shown in FIG. 1, the image identifying apparatus 100 according to the first embodiment includes a control unit 10, a storage unit 20, an image input unit 31, an output unit 32, a communication unit 33, and an operation input unit 34.

制御部10は、CPU(Central Processing Unit)等で構成され、記憶部20に記憶されたプログラムを実行することにより、後述する各部(クロップ画像生成部11、非クロップ画像生成部12、クロップ画像識別器13、非クロップ画像識別器14、識別結果決定部15)の機能を実現する。 The control unit 10 is configured by a CPU (Central Processing Unit) or the like, and executes a program stored in the storage unit 20 so that each unit (cropped image generation unit 11, non-cropped image generation unit 12, cropped image identification) described below is executed. The functions of the device 13, the non-cropped image classifier 14, and the classification result determination unit 15) are realized.

記憶部20は、ROM(Read Only Memory)、RAM(Random Access Memory)等で構成され、制御部10のCPUが実行するプログラム及び必要なデータを記憶する。 The storage unit 20 includes a ROM (Read Only Memory), a RAM (Random Access Memory), and the like, and stores a program executed by the CPU of the control unit 10 and necessary data.

画像入力部31は、学習用の画像データ又は識別する(未知の)画像データを入力するためのデバイスである。制御部10は、画像入力部31を介して画像データを取得する。画像入力部31としては、制御部10が画像データを取得できるなら、任意のデバイスを使用することができる。例えば、記憶部20に画像データを記憶させておき、制御部10が記憶部20を読み出すことによって画像データを取得する場合は、記憶部20が画像入力部31を兼ねることになる。また、制御部10が通信部33を介して外部のサーバ等から画像データを取得する場合は、通信部33が画像入力部31を兼ねることになる。 The image input unit 31 is a device for inputting image data for learning or image data to be identified (unknown). The control unit 10 acquires image data via the image input unit 31. As the image input unit 31, any device can be used as long as the control unit 10 can acquire image data. For example, when the image data is stored in the storage unit 20 and the image data is acquired by the control unit 10 reading the storage unit 20, the storage unit 20 also serves as the image input unit 31. When the control unit 10 acquires image data from an external server or the like via the communication unit 33, the communication unit 33 also serves as the image input unit 31.

出力部32は、制御部10が、画像入力部31から入力した画像を識別した結果等を出力するためのデバイスである。例えば、出力部32は、液晶ディスプレイや有機EL(Electoro−Luminescence)ディスプレイである。この場合、出力部32は、表示部として機能する。ただし、画像識別装置100は、出力部32としてこのようなディスプレイ(表示部)を備えてもよいし、外部のディスプレイを接続するためのインタフェースとしての出力部32を備えてもよい。画像識別装置100は、インタフェースとしての出力部32を備える場合は、出力部32を介して接続した外部のディスプレイに識別結果等を表示する。出力部32は、出力手段として機能する。 The output unit 32 is a device for the control unit 10 to output the result of identifying the image input from the image input unit 31, and the like. For example, the output unit 32 is a liquid crystal display or an organic EL (Electro-Luminescence) display. In this case, the output unit 32 functions as a display unit. However, the image identifying apparatus 100 may include such a display (display unit) as the output unit 32, or may include the output unit 32 as an interface for connecting an external display. When the image identification device 100 includes the output unit 32 as an interface, the image identification device 100 displays the identification result and the like on an external display connected via the output unit 32. The output unit 32 functions as an output unit.

通信部33は、外部の他の装置(例えば、画像データのデータベースが格納されているサーバ等)とデータの送受信を行うためのデバイス(ネットワークインタフェース等)である。制御部10は、通信部33を介して画像データを取得することができる。 The communication unit 33 is a device (network interface or the like) for transmitting/receiving data to/from another external device (for example, a server in which a database of image data is stored). The control unit 10 can acquire image data via the communication unit 33.

操作入力部34は、画像識別装置100に対するユーザの操作入力を受け付けるデバイスであり、例えば、キーボード、マウス、タッチパネル等である。画像識別装置100は、操作入力部34を介して、ユーザからの指示等を受け付ける。操作入力部34は、操作入力手段として機能する。 The operation input unit 34 is a device that receives a user operation input to the image identification apparatus 100, and is, for example, a keyboard, a mouse, a touch panel, or the like. The image identifying apparatus 100 receives an instruction or the like from the user via the operation input unit 34. The operation input unit 34 functions as operation input means.

次に、制御部10の機能について説明する。制御部10は、クロップ画像生成部11、非クロップ画像生成部12、クロップ画像識別器13、非クロップ画像識別器14、識別結果決定部15、の機能を実現する。 Next, the function of the control unit 10 will be described. The control unit 10 realizes the functions of the cropped image generation unit 11, the non-cropped image generation unit 12, the cropped image discriminator 13, the non-cropped image discriminator 14, and the discrimination result determination unit 15.

クロップ画像生成部11は、画像入力部31を介して入力された入力画像から識別対象領域を取得し、取得した該識別対象領域にマージン領域を加えた正方形画像を切り取り(クロップし)、それをクロップ画像識別器13の入力サイズにリサイズした画像(クロップ画像)を生成する。クロップ画像生成部11が、入力画像から識別対象領域を含む画像を切り取る処理をクロップ処理と言う。 The cropped image generation unit 11 acquires an identification target area from the input image input via the image input unit 31, cuts (crops) a square image obtained by adding a margin area to the acquired identification target area, and An image (cropped image) resized to the input size of the cropped image discriminator 13 is generated. A process in which the crop image generation unit 11 cuts out an image including the identification target area from the input image is called a crop process.

非クロップ画像生成部12は、画像入力部31を介して入力された入力画像にHPF(High Pass Filter)処理を施すことによって、エッジを強調した画像(非クロップ画像)を生成する。なお、非クロップ画像生成部12は、HPF処理以外の処理によってエッジを強調した画像を生成してもよい。 The non-cropped image generation unit 12 generates an image with emphasized edges (non-cropped image) by performing HPF (High Pass Filter) processing on the input image input via the image input unit 31. The non-cropped image generation unit 12 may generate an image in which edges are emphasized by a process other than the HPF process.

クロップ画像識別器13及び非クロップ画像識別器14は、どちらもDNNの一種である畳み込みニューラルネットワーク(Convolutional Neural Network:CNN)による画像の識別器である。制御部10が、CNNによる識別器を実現するプログラムを実行することにより、制御部10はクロップ画像識別器13としても機能し、また、非クロップ画像識別器14としても機能する。 The cropped image classifier 13 and the non-cropped image classifier 14 are both classifiers of images by a convolutional neural network (CNN), which is a type of DNN. When the control unit 10 executes the program that realizes the CNN classifier, the control unit 10 functions as the cropped image classifier 13 and also as the non-cropped image classifier 14.

クロップ画像識別器13は、クロップ画像生成部11が生成したクロップ画像が入力される入力層と、入力されたクロップ画像の識別結果が出力される出力層と、入力層及び出力層以外の層である中間層と、を有し、クロップ画像を識別した結果を出力層から出力する。 The cropped image classifier 13 includes an input layer to which the cropped image generated by the cropped image generation unit 11 is input, an output layer to which a classification result of the input cropped image is output, and a layer other than the input layer and the output layer. And outputting a result of identifying the cropped image from the output layer.

非クロップ画像識別器14は、非クロップ画像生成部12が生成した非クロップ画像が入力される入力層と、入力された非クロップ画像の識別結果が出力される出力層と、入力層及び出力層以外の層である中間層と、を有し、非クロップ画像を識別した結果を出力層から出力する。 The non-cropped image discriminator 14 includes an input layer to which the non-cropped image generated by the non-cropped image generation unit 12 is input, an output layer to which a discrimination result of the input non-cropped image is output, and an input layer and an output layer. And an intermediate layer which is a layer other than the above, and outputs the result of identifying the non-cropped image from the output layer.

識別結果決定部15は、クロップ画像識別器13からの出力(クロップ画像の識別結果)と、非クロップ画像識別器14からの出力(非クロップ画像の識別結果)と、の両者を用いて最終的な識別結果を得る。基本的には、識別結果決定部15は、クロップ画像識別器13からの出力と非クロップ画像識別器14からの出力とを単純に加算平均して最終的な識別結果を得る。しかし、これに限定されるものではない。識別結果決定部15は、最終的な識別結果を得る際に、クロップ画像識別器13からの出力と非クロップ画像識別器14からの出力とを、それぞれに所定の重みを乗算して、加重平均を取ってもよい。識別結果決定部15は、識別結果決定手段として機能する。 The discrimination result determination unit 15 finally uses both the output from the cropped image discriminator 13 (the discrimination result of the cropped image) and the output from the non-cropped image discriminator 14 (the discrimination result of the non-cropped image). To obtain a proper identification result. Basically, the discrimination result determination unit 15 simply adds and averages the output from the cropped image discriminator 13 and the output from the non-cropped image discriminator 14 to obtain a final discrimination result. However, it is not limited to this. When obtaining the final discrimination result, the discrimination result determination unit 15 multiplies the output from the cropped image discriminator 13 and the output from the non-cropped image discriminator 14 by predetermined weights, respectively, to obtain a weighted average. You may take. The identification result determination unit 15 functions as an identification result determination unit.

以上、画像識別装置100の機能構成について説明した。次に、クロップ画像や非クロップ画像を用いてCNN(クロップ画像識別器13及び非クロップ画像識別器14)を学習させる処理について、説明する。 The functional configuration of the image identifying apparatus 100 has been described above. Next, a process of learning the CNN (the cropped image discriminator 13 and the non-cropped image discriminator 14) using the cropped image and the non-cropped image will be described.

まず、クロップ画像を用いてクロップ画像識別器13を学習させるクロップ画像学習処理について、図2を参照して説明する。この処理は、クロップ画像識別器13を学習させる際に実行される。また、この処理を実行する前に、正解ラベルを付けた学習用画像データを用意しておく必要がある。正解ラベルとは、その正解ラベルが付いた画像が何の画像かを示すものであり、例えば、疾患画像を入力すると疾患名を出力するCNNを用意したいのであれば、「疾患名」を正解ラベルとして各学習用画像データに付けておく必要がある。別の例として、花の画像の画像を入力するとその花の名称を出力するCNNを用意したいのであれば、「花の名称」を正解ラベルとして各学習用画像データに付けておく必要がある。 First, a cropped image learning process for learning the cropped image discriminator 13 using a cropped image will be described with reference to FIG. This process is executed when the crop image classifier 13 is learned. Further, before executing this processing, it is necessary to prepare learning image data with a correct answer label. The correct answer label indicates what kind of image the image with the correct answer label is. For example, if you want to prepare a CNN that outputs the disease name when a disease image is input, the correct answer label is “disease name”. It is necessary to attach to each learning image data as. As another example, if it is desired to prepare a CNN that outputs the name of a flower when the image of the flower is input, it is necessary to attach "flower name" as a correct answer label to each learning image data.

まず、制御部10は、画像入力部31を介して学習用画像データを取得する(ステップS101)。そして、クロップ画像生成部11は、後述するクロップ画像生成処理を行って、ステップS101で取得した学習用画像データからクロップ画像を生成する(ステップS102)。ステップS102は、クロップ画像生成ステップとも呼ばれる。 First, the control unit 10 acquires learning image data via the image input unit 31 (step S101). Then, the cropped image generation unit 11 performs a cropped image generation process described below to generate a cropped image from the learning image data acquired in step S101 (step S102). Step S102 is also called a cropped image generation step.

次に、制御部10は、クロップ画像生成部11が生成したクロップ画像をクロップ画像識別器13に入力し、学習用画像データに付けられていた正解ラベルに基づいて、クロップ画像識別器13を学習させる(ステップS103)。ステップS103は、クロップ画像学習ステップとも呼ばれる。 Next, the control unit 10 inputs the cropped image generated by the cropped image generation unit 11 to the cropped image discriminator 13 and learns the cropped image discriminator 13 based on the correct label attached to the learning image data. (Step S103). Step S103 is also called a cropped image learning step.

そして、制御部10は、学習を終了するか否かを判定する(ステップS104)。例えば、学習用画像データを予め決められた枚数(例えばM枚)学習させたら学習を終了する。学習させていない学習用画像データが残っている場合等、学習を終了しないなら(ステップS104;No)、ステップS101に戻る。学習を終了するなら(ステップS104;Yes)、クロップ画像学習処理を終了する。 Then, the control unit 10 determines whether to end the learning (step S104). For example, after learning a predetermined number (for example, M) of learning image data, the learning ends. If the learning is not completed (step S104; No), such as when there is still learning image data that has not been learned, the process returns to step S101. If learning is ended (step S104; Yes), the cropped image learning process is ended.

次に、上記ステップS102で行われるクロップ画像生成処理について、図3のフローチャートと図4の具体例を参照して説明する。この処理は、与えられた入力画像からクロップ画像を生成する処理である。 Next, the cropped image generation process performed in step S102 will be described with reference to the flowchart of FIG. 3 and the specific example of FIG. This process is a process of generating a cropped image from a given input image.

まず、クロップ画像生成部11は、与えられた入力画像から、識別対象となる領域を取得する(ステップS111)。与えられた入力画像の例として、図4の左上の図では、識別対象1011(例えば疾患画像)と目盛り1012が写っている入力画像1010が示されている。そして、図4の右上の図では、クロップ画像生成部11が取得した識別対象となる領域1020が示されている。識別対象となる領域の取得方法は任意であるが、例えば、クロップ画像生成部11は、予め機械学習で得られた識別対象領域判定器により自動的に領域1020を抽出(及び取得)する。このような識別対象領域判定器は、例えば、学習用の教師データとして、画像データとその画像に対応する前景マップ(識別対象領域の正解データを人間が作成したもの)を大量に用意しておき、この教師データをCNNに入力して学習させることによって、作成することができる。 First, the cropped image generation unit 11 acquires a region to be identified from the given input image (step S111). As an example of the given input image, the input image 1010 in which the identification target 1011 (for example, a disease image) and the scale 1012 are shown is shown in the upper left diagram of FIG. In the upper right part of FIG. 4, a region 1020 that is the identification target acquired by the cropped image generation unit 11 is shown. The method of acquiring the area to be identified is arbitrary, but for example, the cropped image generation unit 11 automatically extracts (and acquires) the area 1020 by the identification object area determiner obtained by machine learning in advance. Such an identification target area determiner prepares, for example, a large amount of image data and a foreground map corresponding to the image (one in which the correct answer data of the identification target area is created by a human) as training data for learning. , Can be created by inputting and learning the teacher data into the CNN.

識別対象となる領域の取得に関しては、上述したような機械学習による方法に限定されるわけではない。ユーザが操作入力部34を介して入力画像1010中の識別対象となる領域1020を指定し、ユーザが指定した領域1020をクロップ画像生成部11が取得してもよい。また、機械学習等により自動的に抽出した領域1020をユーザが操作入力部34を介して修正可能にしておき、ユーザが修正した識別対象領域をクロップ画像生成部11が取得するようにしてもよい。 The acquisition of the area to be identified is not limited to the method by machine learning as described above. The user may specify the area 1020 to be identified in the input image 1010 via the operation input unit 34, and the crop image generation unit 11 may acquire the area 1020 specified by the user. Further, the area 1020 automatically extracted by machine learning or the like may be made modifiable by the user via the operation input unit 34, and the cropped image generation unit 11 may acquire the identification target area corrected by the user. ..

次に、クロップ画像生成部11は、ステップS111で取得した識別対象の領域に外接する矩形領域を抽出する(ステップS112)。図4の左真ん中の図では、識別対象1011に外接する矩形領域1030が抽出されている様子が示されている。この矩形領域1030は、正方形でなくてもよい。 Next, the cropped image generation unit 11 extracts a rectangular area circumscribing the area to be identified acquired in step S111 (step S112). In the middle diagram on the left side of FIG. 4, a rectangular area 1030 circumscribing the identification target 1011 is extracted. The rectangular area 1030 does not have to be a square.

そして、クロップ画像生成部11は、ステップS112で抽出した矩形領域にマージン領域を付加した正方形領域をクロップ(切り取り)する(ステップS113)。なお、上述の矩形領域1030が長方形だった場合には、マージンの縦横の量を調節することによってクロップする領域を正方形にする。図4の右真ん中の図では、矩形領域1030に斜線で表したマージン領域1041を付加した正方形領域1040が示されているが、この正方形領域1040がクロップされる(切り取られる)ことになる。 Then, the cropped image generation unit 11 crops (cuts) the square area obtained by adding the margin area to the rectangular area extracted in step S112 (step S113). When the rectangular area 1030 described above is a rectangle, the area to be cropped is made square by adjusting the vertical and horizontal amounts of the margin. In the right middle diagram of FIG. 4, a square area 1040 in which a marginal area 1041 represented by diagonal lines is added to the rectangular area 1030 is shown, but this square area 1040 is cropped (cut out).

マージン領域1041の大きさを規定するマージン1042の長さは、矩形領域1030の大きさに応じて変化させてもよいし、一定の長さに設定してもよい。矩形領域1030の大きさに応じて変化させる場合は、例えば「矩形領域1030の一辺の長さの10%」等と設定すればよい。また、矩形領域1030が長辺と短辺とからなる長方形の領域の場合は、例えば「長辺側は矩形領域1030の長辺の長さの10%のマージンを両側に付加し、短辺側はマージンを付加した長辺の長さに合わせるように両側に付加する」等と設定すればよい。 The length of the margin 1042 that defines the size of the margin area 1041 may be changed according to the size of the rectangular area 1030, or may be set to a fixed length. When changing according to the size of the rectangular area 1030, for example, “10% of the length of one side of the rectangular area 1030” may be set. When the rectangular area 1030 is a rectangular area having long sides and short sides, for example, “the long side has a margin of 10% of the length of the long side of the rectangular area 1030 added to both sides and the short side. Is added to both sides so as to match the length of the long side with a margin added."

そして、クロップ画像生成部11は、ステップS113でクロップした正方形領域を、CNN(クロップ画像識別器13)の入力サイズに合わせてリサイズし(ステップS114)、処理を終了する。このリサイズされた正方形領域の画像がクリップ画像である。図4の左下の図では、リサイズされた正方形領域1050が示されているが、これは、ステップS113で切り出された正方形領域1040がリサイズされて拡大されたものである。正方形領域1050に含まれている識別対象1011も正方形領域1050と同じ倍率でリサイズされるので、拡大された状態になっている。 Then, the cropped image generation unit 11 resizes the square area cropped in step S113 according to the input size of the CNN (cropped image classifier 13) (step S114), and ends the process. The image of this resized square area is a clip image. In the lower left diagram of FIG. 4, a resized square area 1050 is shown, but this is a resized and enlarged square area 1040 cut out in step S113. Since the identification target 1011 included in the square area 1050 is also resized at the same magnification as the square area 1050, it is in an enlarged state.

以上のクロップ画像生成処理により、入力画像に含まれる識別対象がクローズアップされたクロップ画像が生成される。そして、生成されたクロップ画像を用いて、上述のクロップ画像学習処理により、クロップ画像識別器13が学習されることになる。 By the above crop image generation processing, a crop image in which the identification target included in the input image is close-up is generated. Then, the crop image discriminator 13 is learned by the above-described crop image learning process using the generated crop image.

次に、非クロップ画像を用いて非クロップ画像識別器14を学習させる非クロップ画像学習処理について、図5を参照して説明する。この処理は、非クロップ画像識別器14を学習させる際に実行される。上述のクロップ画像学習処理と同様、非クロップ画像学習処理を実行する前に、正解ラベルを付けた学習用画像データを用意しておく必要があるが、この学習データは、上述のクロップ画像学習処理で用いた学習データと同一のデータでよい。 Next, a non-cropped image learning process for learning the non-cropped image discriminator 14 using a non-cropped image will be described with reference to FIG. This process is executed when the non-cropped image classifier 14 is learned. Similar to the above cropped image learning process, it is necessary to prepare learning image data with correct answer labels before executing the non-cropped image learning process. It may be the same data as the learning data used in.

まず、制御部10は、画像入力部31を介して学習用画像データを取得する(ステップS201)。そして、非クロップ画像生成部12は、後述する非クロップ画像生成処理を行って、ステップS201で取得した学習用画像データから非クロップ画像を生成する(ステップS202)。ステップS202は、非クロップ画像生成ステップとも呼ばれる。 First, the control unit 10 acquires learning image data via the image input unit 31 (step S201). Then, the non-cropped image generation unit 12 performs a non-cropped image generation process described below to generate a non-cropped image from the learning image data acquired in step S201 (step S202). Step S202 is also called a non-cropped image generation step.

次に、制御部10は、非クロップ画像生成部12が生成した非クロップ画像を非クロップ画像識別器14に入力し、学習用画像データに付けられていた正解ラベルに基づいて、非クロップ画像識別器14を学習させる(ステップS203)。ステップS203は、非クロップ画像学習ステップとも呼ばれる。 Next, the control unit 10 inputs the non-cropped image generated by the non-cropped image generation unit 12 to the non-cropped image discriminator 14, and based on the correct label attached to the learning image data, the non-cropped image discrimination is performed. The device 14 is learned (step S203). Step S203 is also called a non-cropped image learning step.

そして、制御部10は、学習を終了するか否かを判定する(ステップS204)。例えば、学習用画像データを予め決められた枚数(例えばM枚)学習させたら学習を終了する。学習させていない学習用画像データが残っている場合等、学習を終了しないなら(ステップS204;No)、ステップS201に戻る。学習を終了するなら(ステップS204;Yes)、非クロップ画像学習処理を終了する。 Then, the control unit 10 determines whether to end the learning (step S204). For example, after learning a predetermined number (for example, M) of learning image data, the learning ends. If learning is not to be ended (step S204; No), such as when there is still learning image data that has not been learned, the process returns to step S201. If the learning is ended (step S204; Yes), the non-cropped image learning process is ended.

次に、上記ステップS202で行われる非クロップ画像生成処理について、図6のフローチャートと図7の具体例を参照して説明する。この処理は、与えられた入力画像から非クロップ画像を生成する処理である。 Next, the non-cropped image generation processing performed in step S202 will be described with reference to the flowchart of FIG. 6 and the specific example of FIG. 7. This process is a process of generating a non-cropped image from a given input image.

まず、非クロップ画像生成部12は、与えられた入力画像にHPF処理(エッジ強調処理)を行う(ステップS211)。与えられた入力画像の例として、図7の上の図では、識別対象1011(例えば疾患画像)と目盛り1012が写っている入力画像1010が示されている。そして、図7の真ん中の図では、入力画像1010がHPF処理されたことによって、エッジ強調された識別対象1061と、エッジ強調された目盛り1062と、を含む画像1060になったことが示されている。 First, the non-cropped image generation unit 12 performs the HPF process (edge emphasis process) on the given input image (step S211). As an example of the given input image, the input image 1010 in which the identification target 1011 (for example, a disease image) and the scale 1012 are shown is shown in the upper diagram of FIG. 7. Then, in the middle diagram of FIG. 7, it is shown that the input image 1010 is subjected to the HPF process, resulting in an image 1060 including the edge-enhanced identification target 1061 and the edge-enhanced scale 1062. There is.

次に非クロップ画像生成部12は、HPF処理した入力画像の両サイドをカットして(これをサイドカット処理という)、正方形領域を切り出し(ステップS212)、処理を終了する。図7の下の図では、正方形領域1070が示されているが、これは図7の真ん中の図にある画像1060の両サイドを点線1063でカットしたものである。 Next, the non-cropped image generation unit 12 cuts both sides of the HPF-processed input image (this is referred to as side cut processing), cuts out a square area (step S212), and ends the processing. In the lower diagram of FIG. 7, a square area 1070 is shown, which is a dotted line 1063 cut on both sides of the image 1060 in the middle diagram of FIG. 7.

以上の非クロップ画像生成処理により、入力画像のエッジが強調された非クロップ画像が生成される。そして、生成された非クロップ画像を用いて、上述の非クロップ画像学習処理により、非クロップ画像識別器14が学習されることになる。 By the above non-cropped image generation processing, the non-cropped image in which the edge of the input image is emphasized is generated. Then, the non-cropped image discriminator 14 is learned by the above-described non-cropped image learning process using the generated non-cropped image.

以上のようにして、クロップ画像識別器13と非クロップ画像識別器14を学習させることにより、画像識別装置100は、未知の入力画像を識別できるようになる。次に、未知の入力画像を識別する識別処理について、図8を参照して説明する。この処理は、未知の画像を識別する際に実行される。 By learning the cropped image classifier 13 and the non-cropped image classifier 14 as described above, the image classifying apparatus 100 can classify an unknown input image. Next, an identification process for identifying an unknown input image will be described with reference to FIG. This process is executed when identifying an unknown image.

まず、制御部10は、画像入力部31を介して画像識別装置100に識別を行わせる未知画像を取得する(ステップS301)。 First, the control unit 10 acquires an unknown image to be identified by the image identifying apparatus 100 via the image input unit 31 (step S301).

次に、クロップ画像生成部11は、上述したクロップ画像生成処理(図3)により、ステップS301で取得した未知画像からクロップ画像を生成する(ステップS302)。そして、制御部10は、生成されたクロップ画像をクロップ画像識別器13に入力して、クロップ画像識別器13の出力値を取得する(ステップS303)。ステップS303は、クロップ画像識別ステップとも呼ばれる。 Next, the crop image generation unit 11 generates a crop image from the unknown image acquired in step S301 by the above-described crop image generation processing (FIG. 3) (step S302). Then, the control unit 10 inputs the generated cropped image to the cropped image discriminator 13 and acquires the output value of the cropped image discriminator 13 (step S303). Step S303 is also called a cropped image identification step.

次に、非クロップ画像生成部12は、上述した非クロップ画像生成処理(図6)により、ステップS301で取得した未知画像から非クロップ画像を生成する(ステップS304)。そして、制御部10は、生成された非クロップ画像を非クロップ画像識別器14に入力して、非クロップ画像識別器14の出力値を取得する(ステップS305)。ステップS305は、非クロップ画像識別ステップとも呼ばれる。なお、ステップS302からステップS303の処理と、ステップS304からステップS305の処理とは、並行に処理を進めてもよいし、図8とは逆にステップS304からステップS305の処理を、ステップS302からステップS303の処理に先行して行ってもよい。 Next, the non-cropped image generation unit 12 generates a non-cropped image from the unknown image acquired in step S301 by the above-described non-cropped image generation processing (FIG. 6) (step S304). Then, the control unit 10 inputs the generated non-cropped image into the non-cropped image discriminator 14 and acquires the output value of the non-cropped image discriminator 14 (step S305). Step S305 is also called a non-cropped image identification step. Note that the processes of steps S302 to S303 and the processes of steps S304 to S305 may proceed in parallel, or the processes of steps S304 to S305 and steps S302 to S302 may be performed in reverse to FIG. It may be performed prior to the process of S303.

そして、識別結果決定部15は、ステップS303で取得したクロップ画像識別器13の出力値とステップS305で取得した非クロップ画像識別器14の出力値とを加算平均して、最終的な識別結果を決定する(ステップS306)。ステップS306は、識別結果決定ステップとも呼ばれる。 Then, the discrimination result determination unit 15 averages the output value of the cropped image discriminator 13 acquired in step S303 and the output value of the non-cropped image discriminator 14 acquired in step S305 to obtain the final discrimination result. It is determined (step S306). Step S306 is also called an identification result determination step.

そして、制御部10は、識別結果決定部15が決定した最終的な識別結果を出力部32に出力し(ステップS307)、処理を終了する。なお、ステップS307では、制御部10は、最終的な識別結果だけでなく、クロップ画像識別器13の出力及び非クロップ画像識別器14の出力をも出力部32に出力してもよい。 Then, the control unit 10 outputs the final identification result determined by the identification result determination unit 15 to the output unit 32 (step S307), and ends the process. In step S307, the control unit 10 may output not only the final identification result but also the output of the cropped image discriminator 13 and the output of the non-cropped image discriminator 14 to the output unit 32.

以上説明した識別処理により、画像識別装置100は、クロップ画像と非クロップ画像を両方とも用いることによって、識別精度の向上を図ることができる。また、クロップ画像生成部11では、識別対象領域をマージン領域を付加して切り出しているため、識別対象領域の端部(例えば病変領域境界のエッジ部分)を失う危険性を大幅に減らすことができる。しかも、クロップ画像生成部11では、クロップ画像の生成時に正方形で切り出しているため、画像のアスペクト比が保たれ、クロップ画像識別器13においては、アスペクト比も識別のための情報として利用できる。 By the identification processing described above, the image identification apparatus 100 can improve the identification accuracy by using both the cropped image and the non-cropped image. In addition, since the cropped image generation unit 11 cuts out the identification target area with a margin area added, it is possible to greatly reduce the risk of losing the end of the identification target area (for example, the edge portion of the lesion area boundary). .. Moreover, since the cropped image generation unit 11 cuts out a square when the cropped image is generated, the aspect ratio of the image is maintained, and the cropped image discriminator 13 can also use the aspect ratio as information for discrimination.

具体例として、図9に示すように、脂漏性角化症の病変領域1101を含む入力画像1100をクロップ画像識別器13と非クロップ画像識別器14のそれぞれに入力して、CAM(Class Activation Mapping)による活性化マップを作成すると、クロップ画像識別器13では中央領域を中心に活性反応を示し、非クロップ画像識別器14では病変領域全体に活性反応を示すことが確認できる。これは、クロップ画像識別器13の場合は、必ず中央領域に病変領域が存在することが期待されるのに対し、非クロップ画像識別器14では必ずしも中央領域に病変領域が存在することが期待できないので、非クロップ画像識別器14では病変領域判定も含めて処理をしなければならないという違いによるものと考えられる。 As a specific example, as shown in FIG. 9, an input image 1100 including a lesion area 1101 of seborrheic keratoses is input to each of the cropped image discriminator 13 and the non-cropped image discriminator 14 to perform CAM (Class Activation). When an activation map is created by (Mapping), it can be confirmed that the cropped image discriminator 13 shows an active reaction mainly in the central region, and the non-cropped image discriminator 14 shows an activated reaction in the entire lesion region. This is because in the case of the cropped image discriminator 13, it is expected that the lesion region always exists in the central region, whereas in the non-cropped image discriminator 14, it is not necessarily expected that the lesion region exists in the central region. Therefore, it is considered that this is due to the difference that the non-cropped image classifier 14 must perform the processing including the lesion area determination.

なお、図9に示す活性化マップ1110は、入力画像1100をクロップ画像識別器13に入力した際の各症例(メラノーマ(MM)、脂漏性角化症(SK)、色素性母斑(NCN))のCAMによる活性化領域を示した図である。そして、図9に示す活性化マップ1120は、入力画像1100を非クロップ画像識別器14に入力した際の各症例のCAMによる活性化領域を示した図である。どちらの図も、活性度が高い領域ほど黒く示されている。また、図9には、各識別器による各症例のスコア(出力値)も示されている。 In addition, the activation map 1110 shown in FIG. 9 shows each case (melanoma (MM), seborrheic keratosis (SK), pigmented nevus (NCN) when the input image 1100 is input to the crop image discriminator 13. )) It is the figure which showed the activation area|region by CAM. The activation map 1120 shown in FIG. 9 is a diagram showing the CAM activation area of each case when the input image 1100 is input to the non-cropped image discriminator 14. In both figures, the higher activity areas are shown in black. Further, FIG. 9 also shows the score (output value) of each case by each classifier.

図9に示されているように、クロップ画像識別器13による各症例のスコアは、メラノーマ(MM)が0.0890、脂漏性角化症(SK)が0.8681、色素性母斑(NCN))が0.0429であり、非クロップ画像識別器14による各症例のスコアは、メラノーマ(MM)が0.3145、脂漏性角化症(SK)が0.5713、色素性母斑(NCN))が0.1142である。 As shown in FIG. 9, the score of each case by the crop image discriminator 13 is 0.0890 for melanoma (MM), 0.8681 for seborrheic keratosis (SK), and pigmented nevus ( NCN)) is 0.0429, and the score of each case by the non-crop image discriminator 14 is 0.3145 for melanoma (MM), 0.5713 for seborrheic keratosis (SK), and pigmented nevus. (NCN)) is 0.1142.

図9に示す症例のように、病変領域の大きい症例画像の場合、(一般的に悪性症例の方が病変領域のサイズが大きいので)非クロップ画像識別器14のスコアは悪性側(MM側)に傾く傾向があり、図9においても、非クロップ画像識別器14によるメラノーマ(MM)のスコア(0.3145)は比較的高い値になっている。しかし、クロップ画像識別器13では、病変領域の大きさが正規化されているため、病変領域の大きさに依存せず、病変領域内部の構造が重視されて識別が行われる。したがって、図9に示す例では、クロップ画像識別器13が、脂漏性角化症(SK)の所見である白い点(稗粒腫様?腫)や、黒い点(面皰様開大)を検出した結果、脂漏性角化症(SK)のスコア(0.8681)が高くなったものと推測される。 In the case of a case image with a large lesion area as in the case shown in FIG. 9, the score of the non-cropped image classifier 14 is the malignant side (MM side) (since the size of the lesion area is generally larger in malignant cases). Also in FIG. 9, the melanoma (MM) score (0.3145) by the non-cropped image classifier 14 has a relatively high value in FIG. However, since the size of the lesion area is normalized in the crop image classifier 13, the structure inside the lesion area is emphasized and classification is performed without depending on the size of the lesion area. Therefore, in the example shown in FIG. 9, the crop image discriminator 13 detects white dots (branchoma-like tumor) and black dots (comedo-like dilated) that are findings of seborrheic keratosis (SK). As a result of the detection, it is speculated that the seborrheic keratosis (SK) score (0.8681) was increased.

このように、画像識別装置100は、クロップ画像識別器13が識別対象領域の内部構造を重視して識別を行い、非クロップ画像識別器14が入力画像全体から捉えられる特徴によって識別を行うと考えられ、この両方の識別結果を用いて最終的な識別結果を決定するため、識別精度を向上させることができる。 As described above, in the image identifying apparatus 100, it is considered that the cropped image discriminator 13 performs the discrimination with emphasis on the internal structure of the discrimination target region, and the non-cropped image discriminator 14 performs the discrimination based on the features captured from the entire input image. Since the final identification result is determined using both of the identification results, the identification accuracy can be improved.

(変形例1)
実施形態1では、クロップ画像生成部11は、人手で作成した前景マップを用いて機械学習した識別対象領域判定器により、識別対象となる領域を自動的に抽出した。しかし、識別対象となる領域を自動的に抽出する方法として、図9に示したような活性化マップを用いる方法もある。この変形例1について説明する。
(Modification 1)
In the first embodiment, the cropped image generation unit 11 automatically extracts the area to be identified by the identification object area determiner machine-learned using the foreground map created manually. However, as a method of automatically extracting the area to be identified, there is also a method of using the activation map as shown in FIG. This modification 1 will be described.

変形例1に係る画像識別装置100の機能構成は実施形態1と同じく、図1で示されるものである。ただし、変形例1では、制御部10は、クロップ画像学習処理を行う前に、まず、非クロップ画像学習処理(図5)を行って、非クロップ画像識別器14を学習済みにしておく。そして、クロップ画像生成処理(図3)のステップS111において、制御部10は、まず、入力画像を非クロップ画像識別器14に入力して、非クロップ画像識別器14の活性化マップを取得する。そして、活性化マップで、所定の基準値以上に活性化している領域を識別対象領域として抽出する。 The functional configuration of the image identifying apparatus 100 according to the first modification is the same as that of the first embodiment, as shown in FIG. However, in the first modification, the control unit 10 first performs the non-cropped image learning process (FIG. 5) to make the non-cropped image classifier 14 learned before performing the cropped image learning process. Then, in step S111 of the cropped image generation process (FIG. 3 ), the control unit 10 first inputs the input image to the non-cropped image discriminator 14 and acquires the activation map of the non-cropped image discriminator 14. Then, in the activation map, an area activated above a predetermined reference value is extracted as an identification target area.

活性化マップの生成方法にはいくつかの種類があるが、図9に示したようなCAMによる活性化マップや、Grad−CAM(Gradient−weighted Class Activation Mapping)による活性化マップの場合は、識別クラス毎の活性化マップが得られるので、識別クラス毎に得られた各活性化マップを全て加算して平均を取った活性化マップ(ここでは「総合活性化マップ」と呼ぶことにする)を用いて識別対象領域を抽出する。例えば、総合活性化マップの全ての要素の平均値を求め、総合活性化マップ上で、値が当該平均値以上になっている部分を識別対象領域とする。 There are several types of activation map generation methods, but in the case of an activation map by CAM as shown in FIG. 9 or an activation map by Grad-CAM (Gradient-weighted Class Activation Mapping), identification is performed. Since the activation map for each class can be obtained, the activation map obtained by adding all the activation maps obtained for each identification class and taking the average (referred to as "total activation map" here) The identification target area is extracted by using. For example, the average value of all the elements of the total activation map is obtained, and the portion on the total activation map whose value is equal to or more than the average value is set as the identification target area.

活性化マップの生成において、CAMやGrad−CAMを用いるのではなく、単純にCNNの出力層の直前の全結合層の直前の中間層の各要素(特徴マップ)をチャネル方向に平均したものを活性化マップとする活性化マップ生成方法もある。このような活性化マップを用いる場合は、この活性化マップを上述の総合活性化マップと同様に扱うことができる。例えば、この活性化マップの全ての要素の平均値を求め、該活性化マップ上で、値が当該平均値以上になっている部分を識別対象領域とする。 In generating the activation map, instead of using CAM or Grad-CAM, simply averaging each element (feature map) of the intermediate layer immediately before the fully connected layer immediately before the CNN output layer in the channel direction is used. There is also an activation map generation method that uses an activation map. When such an activation map is used, this activation map can be treated in the same manner as the above-mentioned comprehensive activation map. For example, the average value of all the elements of the activation map is obtained, and the portion on the activation map whose value is equal to or more than the average value is set as the identification target area.

変形例1に係る画像識別装置100は、クロップ画像生成処理(図3)のステップS111において、活性化マップを用いて識別対象領域を抽出する点以外は、実施形態1に係る画像識別装置100と同じである。変形例1に係る画像識別装置100は、実施形態1に係る画像識別装置100が備える効果に加え、識別対象領域を抽出するための判定器の学習を別途行う必要がない(非クロップ画像識別器14を学習させることによって、非クロップ画像識別器14が識別対象領域を抽出するための判定器にも利用可能になる)という効果がある。 The image identifying apparatus 100 according to the first modification is the same as the image identifying apparatus 100 according to the first embodiment except that the identification target area is extracted using the activation map in step S111 of the cropped image generation process (FIG. 3 ). Is the same. The image identifying apparatus 100 according to the modified example 1 does not need to separately perform the learning of the determiner for extracting the identification target area in addition to the effect provided in the image identifying apparatus 100 according to the first embodiment (non-cropped image identifyr). Learning 14 makes it possible for the non-cropped image discriminator 14 to be used as a discriminator for extracting a discrimination target region).

(変形例2)
実施形態1では、識別結果決定部15は、クロップ画像識別器13からの出力と非クロップ画像識別器14からの出力との平均(加算平均や加重平均)を取ることにより最終的な識別結果を得ていた。しかし、これに限定されるものではない。識別結果決定部15は、クロップ画像識別器13の出力層と、非クロップ画像識別器14の出力層と、を連結して全結合層に入力し、該全結合層を介した新たな出力層によって最終的な識別結果を得てもよい。このような変形例2について説明する。
(Modification 2)
In the first embodiment, the classification result determination unit 15 obtains the final classification result by taking the average (additional average or weighted average) of the output from the cropped image classifier 13 and the output from the non-cropped image classifier 14. I was getting. However, it is not limited to this. The discrimination result determination unit 15 connects the output layer of the cropped image discriminator 13 and the output layer of the non-cropped image discriminator 14 and inputs them to the fully connected layer, and a new output layer through the fully connected layer. The final identification result may be obtained by Such a second modification will be described.

変形例2に係る画像識別装置100の機能構成は実施形態1と同じく、図1で示されるものである。変形例2に係る識別結果決定部15は、図10に示すように、クロップ画像識別器13の出力層1301と、非クロップ画像識別器14の出力層1401と、を連結して全結合層として、新たな出力層1501に接続して最終的な識別結果を得る。 The functional configuration of the image identifying apparatus 100 according to the modified example 2 is the same as that of the first embodiment and is shown in FIG. As shown in FIG. 10, the discrimination result determination unit 15 according to the modified example 2 connects the output layer 1301 of the cropped image discriminator 13 and the output layer 1401 of the non-cropped image discriminator 14 as a fully connected layer. , And connect to a new output layer 1501 to obtain the final identification result.

変形例2では、識別結果決定部15の出力層1501についても、ニューラルネットの学習を行う必要がある。このための全体学習処理について、図11を参照して説明する。この処理は、クロップ画像学習処理(図2)及び非クロップ画像学習処理(図5)が完了した後に行うと、学習時間の短縮を図ることができる。しかし、クロップ画像学習処理(図2)や非クロップ画像学習処理(図5)を行う前に全体学習処理を行うことも可能であり、この場合は、全体学習処理が完了した時点で、クロップ画像識別器13及び非クロップ画像識別器14の学習も完了していることになるため、別途クロップ画像学習処理(図2)及び非クロップ画像学習処理(図5)を行う必要はなくなる。 In the second modification, the output layer 1501 of the identification result determination unit 15 also needs to learn the neural network. The overall learning process for this will be described with reference to FIG. If this process is performed after the cropped image learning process (FIG. 2) and the non-cropped image learning process (FIG. 5) are completed, the learning time can be shortened. However, it is also possible to perform the overall learning process before performing the cropped image learning process (FIG. 2) or the non-cropped image learning process (FIG. 5). In this case, when the entire learning process is completed, the cropped image is processed. Since the learning of the classifier 13 and the non-cropped image classifier 14 has been completed, it is not necessary to separately perform the cropped image learning process (FIG. 2) and the non-cropped image learning process (FIG. 5).

まず、制御部10は、画像入力部31を介して学習用画像データを取得する(ステップS401)。そして、クロップ画像生成部11は、クロップ画像生成処理(図3)を行って、ステップS401で取得した学習用画像データからクロップ画像を生成する(ステップS402)。また、非クロップ画像生成部12は、非クロップ画像生成処理(図6)を行って、ステップS401で取得した学習用画像データから非クロップ画像を生成する(ステップS403)。なお、ステップS402とステップS403とは、並行に処理を進めてもよいし、図11とは逆にステップS403の処理をステップS402の処理より先に行ってもよい。 First, the control unit 10 acquires learning image data via the image input unit 31 (step S401). Then, the crop image generation unit 11 performs a crop image generation process (FIG. 3) and generates a crop image from the learning image data acquired in step S401 (step S402). Further, the non-cropped image generation unit 12 performs non-cropped image generation processing (FIG. 6) to generate a non-cropped image from the learning image data acquired in step S401 (step S403). Note that steps S402 and S403 may proceed in parallel, or conversely to step S403, the processing of step S403 may be performed before the processing of step S402.

そして、制御部10は、図10に示すようなクロップ画像識別器13と非クロップ画像識別器14とを接続したCNNにおいて、クロップ画像生成部11が生成したクロップ画像(正方形領域1050)をクロップ画像識別器13に入力し、非クロップ画像生成部12が生成した非クロップ画像(正方形領域1070)を非クロップ画像識別器14に入力し、学習用画像データに付けられていた正解ラベルに基づいて、出力層1301と出力層1401とを連結した全結合層と識別結果決定部15の出力層1501との間の全結合接続の重みを学習させる(ステップS404)。 The control unit 10 then crops the cropped image (square area 1050) generated by the cropped image generation unit 11 at the CNN in which the cropped image classifier 13 and the non-cropped image classifier 14 are connected as shown in FIG. The non-cropped image (square area 1070) generated by the non-cropped image generation unit 12 is input to the non-cropped image discriminator 14, and based on the correct label attached to the learning image data, The weight of the total connection between the total connection layer connecting the output layers 1301 and 1401 and the output layer 1501 of the identification result determination unit 15 is learned (step S404).

そして、制御部10は、学習を終了するか否かを判定する(ステップS405)。例えば、学習用画像データを予め決められた枚数(例えばM枚)学習させたら学習を終了する。学習させていない学習用画像データが残っている場合等、学習を終了しないなら(ステップS405;No)、ステップS401に戻る。学習を終了するなら(ステップS405;Yes)、全体学習処理を終了する。 Then, the control unit 10 determines whether to end the learning (step S405). For example, after learning a predetermined number (for example, M) of learning image data, the learning ends. If learning is not completed (step S405; No), such as when there is still learning image data that has not been learned, the process returns to step S401. If the learning is ended (step S405; Yes), the whole learning process is ended.

以上のようにして、識別結果決定部15の出力層1501へのニューラルネットを学習させることにより、変形例2に係る画像識別装置100は、未知の入力画像を識別できるようになる。次に、変形例2に係る画像識別装置100で未知の入力画像を識別する識別処理について、図12を参照して説明する。この処理は、未知の画像を識別する際に実行される。 As described above, by learning the neural net to the output layer 1501 of the identification result determining unit 15, the image identifying apparatus 100 according to the modified example 2 can identify an unknown input image. Next, an identification process for identifying an unknown input image by the image identification device 100 according to the modified example 2 will be described with reference to FIG. This process is executed when identifying an unknown image.

まず、制御部10は、画像入力部31を介して画像識別装置100に識別を行わせる未知画像を取得する(ステップS501)。 First, the control unit 10 acquires an unknown image to be identified by the image identifying apparatus 100 via the image input unit 31 (step S501).

そして、クロップ画像生成部11は、クロップ画像生成処理(図3)を行って、ステップS501で取得した未知画像からクロップ画像を生成する(ステップS502)。また、非クロップ画像生成部12は、非クロップ画像生成処理(図6)を行って、ステップS501で取得した未知画像から非クロップ画像を生成する(ステップS503)。なお、ステップS502とステップS503とは、並行に処理を進めてもよいし、図12とは逆にステップS503の処理をステップS502の処理より先に行ってもよい。 Then, the cropped image generation unit 11 performs a cropped image generation process (FIG. 3) to generate a cropped image from the unknown image acquired in step S501 (step S502). Further, the non-cropped image generation unit 12 performs non-cropped image generation processing (FIG. 6) to generate a non-cropped image from the unknown image acquired in step S501 (step S503). Note that steps S502 and S503 may proceed in parallel, or, conversely to FIG. 12, the processing of step S503 may be performed before the processing of step S502.

そして、識別結果決定部15は、図10に示すようなクロップ画像識別器13と非クロップ画像識別器14とを接続したCNNにおいて、クロップ画像生成部11が生成したクロップ画像をクロップ画像識別器13に入力し、非クロップ画像生成部12が生成した非クロップ画像を非クロップ画像識別器14に入力する。そして、出力層1501に出力される出力値によって、最終的な識別結果を決定する(ステップS504)。 Then, in the CNN in which the cropped image discriminator 13 and the non-cropped image discriminator 14 are connected as shown in FIG. 10, the discrimination result determination unit 15 sets the cropped image discriminator 13 to the cropped image generated by the cropped image generation unit 11. Then, the non-cropped image generated by the non-cropped image generation unit 12 is input to the non-cropped image discriminator 14. Then, the final identification result is determined by the output value output to the output layer 1501 (step S504).

そして、制御部10は、識別結果決定部15が決定した最終的な識別結果を出力部32に出力し(ステップS505)、処理を終了する。なお、ステップS505では、制御部10は、最終的な識別結果だけでなく、クロップ画像識別器13の出力(図10の出力層1301の各要素の値)及び非クロップ画像識別器14の出力(図10の出力層1401の各要素の値)をも出力部32に出力してもよい。 Then, the control unit 10 outputs the final identification result determined by the identification result determination unit 15 to the output unit 32 (step S505), and ends the process. In step S505, the control unit 10 outputs not only the final classification result but also the output of the cropped image classifier 13 (the value of each element of the output layer 1301 in FIG. 10) and the output of the non-cropped image classifier 14 ( The value of each element of the output layer 1401 in FIG. 10 may also be output to the output unit 32.

以上説明した識別処理により、変形例2に係る画像識別装置100は、クロップ画像と非クロップ画像を両方とも用いることによって、識別精度の向上を図ることができる。 By the identification processing described above, the image identification apparatus 100 according to the modified example 2 can improve the identification accuracy by using both the cropped image and the non-cropped image.

なお、上述の実施形態及び変形例では、CNNによる識別器を実現するプログラムを制御部10が実行することにより、制御部10はクロップ画像識別器13や非クロップ画像識別器14としても機能することとしていたが、これに限られない。画像識別装置100は、制御部10とは別に(例えば、GPU(Graphics Processing Unit)や、専用のIC(Integrated Circuit)等の)クロップ画像識別器13や非クロップ画像識別器14の機能を実現するデバイスを備えてもよい。 In the above-described embodiment and modification, the control unit 10 also functions as the cropped image discriminator 13 and the non-cropped image discriminator 14 by the control unit 10 executing a program that realizes the discriminator based on CNN. However, it is not limited to this. The image identification apparatus 100 realizes the functions of a cropped image discriminator 13 and a non-cropped image discriminator 14 (for example, a GPU (Graphics Processing Unit), a dedicated IC (Integrated Circuit), etc.) separately from the control unit 10. A device may be included.

また、上述の実施形態1では主に皮膚の疾患を例にとって説明したが、本発明は皮膚科の分野に限定されるものではなく、広く一般の画像識別の分野において適用可能である。例えば、花の識別、細菌の顕微鏡写真の識別等にも適用できる。 Further, in the above-described first embodiment, a skin disease has been mainly described as an example, but the present invention is not limited to the field of dermatology, and can be widely applied to the field of general image identification. For example, it can be applied to identification of flowers, identification of micrographs of bacteria, and the like.

また、上述の実施形態及び変形例は適宜組み合わせることができる。例えば、変形例1と変形例2とを組み合わせることにより、活性化マップで識別対象となる領域を自動的に抽出し、図10に示すようにクロップ画像識別器13と非クロップ画像識別器14とを接続して出力層1501から最終的な識別結果を取得する画像識別装置100を構成してもよい。 Further, the above-described embodiments and modified examples can be combined appropriately. For example, by combining Modification 1 and Modification 2, a region to be identified in the activation map is automatically extracted, and the cropped image discriminator 13 and the non-cropped image discriminator 14 are extracted as shown in FIG. May be connected to obtain the final identification result from the output layer 1501.

また、上述の実施形態及び変形例では、非クロップ画像生成部12が、入力画像のエッジを強調した画像を生成するものとして説明したが、これに限られない。非クロップ画像生成部12は、入力画像をクロップしないことが重要であり、入力画像をそのまま非クロップ画像としてもよい。 Further, although the non-cropped image generation unit 12 is described as generating an image in which the edge of the input image is emphasized in the above-described embodiment and modification, the present invention is not limited to this. It is important for the non-cropped image generation unit 12 not to crop the input image, and the input image may be directly used as the non-cropped image.

なお、画像識別装置100の各機能は、通常のPC(Personal Computer)等のコンピュータによっても実施することができる。具体的には、上記実施形態では、画像識別装置100が行う画像識別処理のプログラムが、記憶部20のROMに予め記憶されているものとして説明した。しかし、プログラムを、フレキシブルディスク、CD−ROM(Compact Disc Read Only Memory)、DVD(Digital Versatile Disc)、MO(Magneto−Optical Disc)、メモリカード、USB(Universal Serial Bus)メモリ等のコンピュータ読み取り可能な記録媒体に格納して配布し、そのプログラムをコンピュータに読み込んでインストールすることにより、上述の各機能を実現することができるコンピュータを構成してもよい。 Each function of the image identifying apparatus 100 can be implemented by a computer such as a normal PC (Personal Computer). Specifically, in the above embodiment, the program of the image identification processing performed by the image identification device 100 is described as being stored in the ROM of the storage unit 20 in advance. However, the program may be stored in a flexible disk, a compact disc read only memory (CD-ROM), a digital versatile disc (DVD), a magneto-optical disc (MO), a memory card, a computer (USB) readable by a USB (universal serial bus), or the like. A computer capable of realizing the above-described functions may be configured by storing and distributing the program in a recording medium, reading the program into a computer, and installing the program.

以上、本発明の好ましい実施形態について説明したが、本発明は係る特定の実施形態に限定されるものではなく、本発明には、特許請求の範囲に記載された発明とその均等の範囲が含まれる。以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。 Although the preferred embodiments of the present invention have been described above, the present invention is not limited to the specific embodiments, and the present invention includes the inventions described in the claims and their equivalents. Be done. The inventions described in the initial claims of the present application will be additionally described below.

(付記1)
入力画像から識別対象領域を含む画像を切り取る処理であるクロップ処理を行ったクロップ画像を生成するクロップ画像生成部と、
前記入力画像から前記クロップ処理を行っていない非クロップ画像を生成する非クロップ画像生成部と、
前記クロップ画像を識別するクロップ画像識別器と、
前記非クロップ画像を識別する非クロップ画像識別器と、
前記クロップ画像識別器による識別結果と、前記非クロップ画像識別器による識別結果と、の両者を用いて最終的な識別結果を取得する識別結果決定部と、
を備える画像識別装置。
(Appendix 1)
A cropped image generation unit that generates a cropped image that has been cropped, which is a process of cutting out an image including an identification target region from an input image,
A non-cropped image generation unit that generates a non-cropped image from which the crop processing has not been performed from the input image,
A cropped image identifier for identifying the cropped image,
A non-cropped image discriminator that identifies the non-cropped image,
A discrimination result by the cropped image discriminator, a discrimination result by the non-cropped image discriminator, and a discrimination result determination unit that obtains a final discrimination result using both of them.
An image identification device including.

(付記2)
前記クロップ画像生成部は、前記入力画像から前記識別対象領域を取得し、前記識別対象領域に所定のマージン領域を含めた画像として、前記クロップ画像を生成する、
付記1に記載の画像識別装置。
(Appendix 2)
The cropped image generation unit acquires the identification target area from the input image, and generates the cropped image as an image including a predetermined margin area in the identification target area,
The image identification device according to attachment 1.

(付記3)
前記クロップ画像生成部は、機械学習で得られた識別対象領域判定器により前記識別対象領域を取得する、
付記2に記載の画像識別装置。
(Appendix 3)
The cropped image generation unit acquires the identification target area by an identification target area determiner obtained by machine learning,
The image identification device according to attachment 2.

(付記4)
前記クロップ画像生成部は、前記非クロップ画像識別器の活性化マップで活性化している領域を抽出することにより前記識別対象領域を取得する、
付記2に記載の画像識別装置。
(Appendix 4)
The cropped image generation unit acquires the classification target area by extracting a region activated in an activation map of the non-cropped image classification device,
The image identification device according to attachment 2.

(付記5)
前記非クロップ画像生成部は、前記入力画像に対してエッジ強調処理及びサイドカット処理を行った画像として、前記非クロップ画像を生成する、
付記1から4のいずれか1つに記載の画像識別装置。
(Appendix 5)
The non-cropped image generation unit generates the non-cropped image as an image obtained by performing edge enhancement processing and sidecut processing on the input image,
The image identification device according to any one of appendices 1 to 4.

(付記6)
前記非クロップ画像生成部は、前記入力画像を前記非クロップ画像とする、
付記1から4のいずれか1つに記載の画像識別装置。
(Appendix 6)
The non-cropped image generation unit, the input image is the non-cropped image,
The image identification device according to any one of appendices 1 to 4.

(付記7)
前記識別結果決定部は、前記クロップ画像識別器の出力値と前記非クロップ画像識別器の出力値との平均を求めることによって、最終的な識別結果を取得する、
付記1から6のいずれか1つに記載の画像識別装置。
(Appendix 7)
The discrimination result determining unit obtains a final discrimination result by obtaining an average of an output value of the cropped image discriminator and an output value of the non-cropped image discriminator,
The image identification device according to any one of appendices 1 to 6.

(付記8)
前記識別結果決定部は、前記クロップ画像識別器の出力層と前記非クロップ画像識別器の出力層とを連結して全結合層を構成し、前記全結合層を介した出力層によって、最終的な識別結果を取得する、
付記1から6のいずれか1つに記載の画像識別装置。
(Appendix 8)
The discrimination result determination unit connects the output layer of the cropped image discriminator and the output layer of the non-cropped image discriminator to form a fully combined layer, and an output layer through the fully combined layer finally provides Get the identification result,
The image identification device according to any one of appendices 1 to 6.

(付記9)
さらに、前記クロップ画像識別器の出力値と、前記非クロップ画像識別器の出力値と、を表示する表示部を備える、
付記1から8のいずれか1つに記載の画像識別装置。
(Appendix 9)
Further, a display unit for displaying the output value of the cropped image classifier and the output value of the non-cropped image classifier,
The image identification device according to any one of appendices 1 to 8.

(付記10)
前記識別対象領域は病変領域である、
付記1から9のいずれか1つに記載の画像識別装置。
(Appendix 10)
The identification target area is a lesion area,
The image identification device according to any one of appendices 1 to 9.

(付記11)
入力画像から識別対象領域を含む画像を切り取る処理であるクロップ処理を行ったクロップ画像を生成するクロップ画像生成ステップと、
前記入力画像から前記クロップ処理を行っていない非クロップ画像を生成する非クロップ画像生成ステップと、
前記クロップ画像でクロップ画像識別器を学習させるクロップ画像学習ステップと、
前記非クロップ画像で非クロップ画像識別器を学習させる非クロップ画像学習ステップと、
を含む識別器学習方法。
(Appendix 11)
A cropped image generation step of generating a cropped image that has been cropped, which is a process of cutting out an image including an identification target area from the input image;
A non-cropped image generation step for generating a non-cropped image from which the crop processing has not been performed, from the input image;
A crop image learning step of learning a crop image identifier with the crop image,
A non-cropped image learning step of learning a non-cropped image identifier with the non-cropped image,
A classifier learning method including.

(付記12)
入力画像から識別対象領域を含む画像を切り取る処理であるクロップ処理を行ったクロップ画像を生成するクロップ画像生成ステップと、
前記入力画像から前記クロップ処理を行っていない非クロップ画像を生成する非クロップ画像生成ステップと、
前記クロップ画像を識別するクロップ画像識別ステップと、
前記非クロップ画像を識別する非クロップ画像識別ステップと、
前記クロップ画像識別ステップによる識別結果と、前記非クロップ画像識別ステップによる識別結果と、の両者を用いて最終的な識別結果を取得する識別結果決定ステップと、
を含む画像識別方法。
(Appendix 12)
A cropped image generation step of generating a cropped image that has been cropped, which is a process of cutting out an image including an identification target area from the input image;
A non-cropped image generation step for generating a non-cropped image from which the crop processing has not been performed, from the input image;
A cropped image identifying step for identifying the cropped image,
A non-cropped image identifying step for identifying the non-cropped image,
An identification result determination step of obtaining a final identification result using both the identification result by the cropped image identification step and the identification result by the non-cropped image identification step,
Image identification method including.

(付記13)
画像識別装置のコンピュータに、
入力画像から識別対象領域を含む画像を切り取る処理であるクロップ処理を行ったクロップ画像を生成するクロップ画像生成ステップ、
前記入力画像から前記クロップ処理を行っていない非クロップ画像を生成する非クロップ画像生成ステップ、
前記クロップ画像を識別するクロップ画像識別ステップ、
前記非クロップ画像を識別する非クロップ画像識別ステップ、及び、
前記クロップ画像識別ステップによる識別結果と、前記非クロップ画像識別ステップによる識別結果と、の両者を用いて最終的な識別結果を取得する識別結果決定ステップ、
を実行させるためのプログラム。
(Appendix 13)
In the computer of the image identification device,
A cropped image generation step of generating a cropped image that has been cropped, which is a process of cutting out an image including an identification target area from an input image,
A non-cropped image generation step of generating a non-cropped image from which the crop processing has not been performed from the input image,
A cropped image identifying step of identifying the cropped image,
A non-cropped image identifying step for identifying the non-cropped image, and
An identification result determination step of obtaining a final identification result by using both the identification result by the cropped image identification step and the identification result by the non-cropped image identification step,
A program to execute.

10…制御部、11…クロップ画像生成部、12…非クロップ画像生成部、13…クロップ画像識別器、14…非クロップ画像識別器、15…識別結果決定部、20…記憶部、31…画像入力部、32…出力部、33…通信部、34…操作入力部、100…画像識別装置、1010,1100…入力画像、1011,1061…識別対象、1012,1062…目盛り、1020…領域、1030…矩形領域、1040,1050,1070…正方形領域、1041…マージン領域、1042…マージン、1060…画像、1063…点線、1101…病変領域、1110,1120…活性化マップ、1301,1401,1501…出力層 10... Control unit, 11... Crop image generation unit, 12... Non-cropped image generation unit, 13... Crop image discriminator, 14... Non-cropped image discriminator, 15... Discrimination result determination unit, 20... Storage unit, 31... Image Input unit, 32... Output unit, 33... Communication unit, 34... Operation input unit, 100... Image identification device, 1010, 1100... Input image, 1011, 1061... Identification target, 1012, 1062... Scale, 1020... Region, 1030 ... rectangular area, 1040, 1050, 1070... square area, 1041... margin area, 1042... margin, 1060... image, 1063... dotted line, 1101... lesion area, 1110, 1120... activation map, 1301, 1401, 1501... output layer

Claims (13)

入力画像から識別対象領域を含む画像を切り取る処理であるクロップ処理を行ったクロップ画像を生成するクロップ画像生成部と、
前記入力画像から前記クロップ処理を行っていない非クロップ画像を生成する非クロップ画像生成部と、
前記クロップ画像を識別するクロップ画像識別器と、
前記非クロップ画像を識別する非クロップ画像識別器と、
前記クロップ画像識別器による識別結果と、前記非クロップ画像識別器による識別結果と、の両者を用いて最終的な識別結果を取得する識別結果決定部と、
を備える画像識別装置。
A cropped image generation unit that generates a cropped image that has been cropped, which is a process of cutting out an image including an identification target region from an input image,
A non-cropped image generation unit that generates a non-cropped image from which the crop processing has not been performed from the input image,
A cropped image identifier for identifying the cropped image,
A non-cropped image discriminator that identifies the non-cropped image,
A discrimination result by the cropped image discriminator, a discrimination result by the non-cropped image discriminator, and a discrimination result determination unit that obtains a final discrimination result using both of them.
An image identification device including.
前記クロップ画像生成部は、前記入力画像から前記識別対象領域を取得し、前記識別対象領域に所定のマージン領域を含めた画像として、前記クロップ画像を生成する、
請求項1に記載の画像識別装置。
The cropped image generation unit acquires the identification target area from the input image, and generates the cropped image as an image including a predetermined margin area in the identification target area,
The image identification device according to claim 1.
前記クロップ画像生成部は、機械学習で得られた識別対象領域判定器により前記識別対象領域を取得する、
請求項2に記載の画像識別装置。
The cropped image generation unit acquires the identification target area by an identification target area determiner obtained by machine learning,
The image identification device according to claim 2.
前記クロップ画像生成部は、前記非クロップ画像識別器の活性化マップで活性化している領域を抽出することにより前記識別対象領域を取得する、
請求項2に記載の画像識別装置。
The cropped image generation unit acquires the classification target area by extracting a region activated in an activation map of the non-cropped image classification device,
The image identification device according to claim 2.
前記非クロップ画像生成部は、前記入力画像に対してエッジ強調処理及びサイドカット処理を行った画像として、前記非クロップ画像を生成する、
請求項1から4のいずれか1項に記載の画像識別装置。
The non-cropped image generation unit generates the non-cropped image as an image obtained by performing edge enhancement processing and sidecut processing on the input image,
The image identification device according to claim 1.
前記非クロップ画像生成部は、前記入力画像を前記非クロップ画像とする、
請求項1から4のいずれか1項に記載の画像識別装置。
The non-cropped image generation unit, the input image is the non-cropped image,
The image identification device according to claim 1.
前記識別結果決定部は、前記クロップ画像識別器の出力値と前記非クロップ画像識別器の出力値との平均を求めることによって、最終的な識別結果を取得する、
請求項1から6のいずれか1項に記載の画像識別装置。
The discrimination result determining unit obtains a final discrimination result by obtaining an average of an output value of the cropped image discriminator and an output value of the non-cropped image discriminator,
The image identification device according to claim 1.
前記識別結果決定部は、前記クロップ画像識別器の出力層と前記非クロップ画像識別器の出力層とを連結して全結合層を構成し、前記全結合層を介した出力層によって、最終的な識別結果を取得する、
請求項1から6のいずれか1項に記載の画像識別装置。
The discrimination result determination unit connects the output layer of the cropped image discriminator and the output layer of the non-cropped image discriminator to form a fully combined layer, and an output layer through the fully combined layer finally provides Get the identification result,
The image identification device according to claim 1.
さらに、前記クロップ画像識別器の出力値と、前記非クロップ画像識別器の出力値と、を表示する表示部を備える、
請求項1から8のいずれか1項に記載の画像識別装置。
Further, a display unit for displaying the output value of the cropped image classifier and the output value of the non-cropped image classifier,
The image identification device according to claim 1.
前記識別対象領域は病変領域である、
請求項1から9のいずれか1項に記載の画像識別装置。
The identification target area is a lesion area,
The image identification device according to claim 1.
入力画像から識別対象領域を含む画像を切り取る処理であるクロップ処理を行ったクロップ画像を生成するクロップ画像生成ステップと、
前記入力画像から前記クロップ処理を行っていない非クロップ画像を生成する非クロップ画像生成ステップと、
前記クロップ画像でクロップ画像識別器を学習させるクロップ画像学習ステップと、
前記非クロップ画像で非クロップ画像識別器を学習させる非クロップ画像学習ステップと、
を含む識別器学習方法。
A cropped image generation step of generating a cropped image that has been cropped, which is a process of cutting out an image including an identification target area from the input image;
A non-cropped image generation step for generating a non-cropped image from which the crop processing has not been performed, from the input image;
A crop image learning step of learning a crop image identifier with the crop image,
A non-cropped image learning step of learning a non-cropped image identifier with the non-cropped image,
A classifier learning method including.
入力画像から識別対象領域を含む画像を切り取る処理であるクロップ処理を行ったクロップ画像を生成するクロップ画像生成ステップと、
前記入力画像から前記クロップ処理を行っていない非クロップ画像を生成する非クロップ画像生成ステップと、
前記クロップ画像を識別するクロップ画像識別ステップと、
前記非クロップ画像を識別する非クロップ画像識別ステップと、
前記クロップ画像識別ステップによる識別結果と、前記非クロップ画像識別ステップによる識別結果と、の両者を用いて最終的な識別結果を取得する識別結果決定ステップと、
を含む画像識別方法。
A cropped image generation step of generating a cropped image that has been cropped, which is a process of cutting out an image including an identification target area from the input image;
A non-cropped image generation step for generating a non-cropped image from which the crop processing has not been performed, from the input image;
A cropped image identifying step for identifying the cropped image,
A non-cropped image identifying step for identifying the non-cropped image,
An identification result determination step of obtaining a final identification result using both the identification result by the cropped image identification step and the identification result by the non-cropped image identification step,
Image identification method including.
画像識別装置のコンピュータに、
入力画像から識別対象領域を含む画像を切り取る処理であるクロップ処理を行ったクロップ画像を生成するクロップ画像生成ステップ、
前記入力画像から前記クロップ処理を行っていない非クロップ画像を生成する非クロップ画像生成ステップ、
前記クロップ画像を識別するクロップ画像識別ステップ、
前記非クロップ画像を識別する非クロップ画像識別ステップ、及び、
前記クロップ画像識別ステップによる識別結果と、前記非クロップ画像識別ステップによる識別結果と、の両者を用いて最終的な識別結果を取得する識別結果決定ステップ、
を実行させるためのプログラム。
In the computer of the image identification device,
A cropped image generation step of generating a cropped image that has been cropped, which is a process of cutting out an image including an identification target area from an input image,
A non-cropped image generation step of generating a non-cropped image from which the crop processing has not been performed from the input image,
A cropped image identifying step of identifying the cropped image,
A non-cropped image identifying step for identifying the non-cropped image, and
An identification result determination step of obtaining a final identification result by using both the identification result by the cropped image identification step and the identification result by the non-cropped image identification step,
A program to execute.
JP2018238800A 2018-12-20 2018-12-20 Image identification device, classifier learning method, image identification method and program Active JP7293644B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018238800A JP7293644B2 (en) 2018-12-20 2018-12-20 Image identification device, classifier learning method, image identification method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018238800A JP7293644B2 (en) 2018-12-20 2018-12-20 Image identification device, classifier learning method, image identification method and program

Publications (2)

Publication Number Publication Date
JP2020101927A true JP2020101927A (en) 2020-07-02
JP7293644B2 JP7293644B2 (en) 2023-06-20

Family

ID=71139601

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018238800A Active JP7293644B2 (en) 2018-12-20 2018-12-20 Image identification device, classifier learning method, image identification method and program

Country Status (1)

Country Link
JP (1) JP7293644B2 (en)

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022038855A1 (en) * 2020-08-17 2022-02-24 カシオ計算機株式会社 Feature amount acquisition device, similar image search device, display device, feature amount acquisition method, similar image search method, display method, and program
WO2022124224A1 (en) * 2020-12-09 2022-06-16 ブラザー工業株式会社 Method, system, and computer program
US11403069B2 (en) 2017-07-24 2022-08-02 Tesla, Inc. Accelerated mathematical engine
US11409692B2 (en) 2017-07-24 2022-08-09 Tesla, Inc. Vector computational unit
WO2022185473A1 (en) * 2021-03-04 2022-09-09 日本電気株式会社 Object detection model generation device, object detection model generation method, object detection device, object detection method, and recording medium
US11487288B2 (en) 2017-03-23 2022-11-01 Tesla, Inc. Data synthesis for autonomous control systems
US11537811B2 (en) 2018-12-04 2022-12-27 Tesla, Inc. Enhanced object detection for autonomous vehicles based on field view
US11561791B2 (en) 2018-02-01 2023-01-24 Tesla, Inc. Vector computational unit receiving data elements in parallel from a last row of a computational array
US11562231B2 (en) 2018-09-03 2023-01-24 Tesla, Inc. Neural networks for embedded devices
US11567514B2 (en) 2019-02-11 2023-01-31 Tesla, Inc. Autonomous and user controlled vehicle summon to a target
US11610117B2 (en) 2018-12-27 2023-03-21 Tesla, Inc. System and method for adapting a neural network model on a hardware platform
US11636333B2 (en) 2018-07-26 2023-04-25 Tesla, Inc. Optimizing neural network structures for embedded systems
US11665108B2 (en) 2018-10-25 2023-05-30 Tesla, Inc. QoS manager for system on a chip communications
US11681649B2 (en) 2017-07-24 2023-06-20 Tesla, Inc. Computational array microprocessor system using non-consecutive data formatting
US11734562B2 (en) 2018-06-20 2023-08-22 Tesla, Inc. Data pipeline and deep learning system for autonomous driving
US11748620B2 (en) 2019-02-01 2023-09-05 Tesla, Inc. Generating ground truth for machine learning from time series elements
US11790664B2 (en) 2019-02-19 2023-10-17 Tesla, Inc. Estimating object properties using visual image data
US11816585B2 (en) 2018-12-03 2023-11-14 Tesla, Inc. Machine learning models operating at different frequencies for autonomous vehicles
US11841434B2 (en) 2018-07-20 2023-12-12 Tesla, Inc. Annotation cross-labeling for autonomous control systems
US11893774B2 (en) 2018-10-11 2024-02-06 Tesla, Inc. Systems and methods for training machine models with augmented data
US11893393B2 (en) 2017-07-24 2024-02-06 Tesla, Inc. Computational array microprocessor system with hardware arbiter managing memory requests
US12014553B2 (en) 2019-02-01 2024-06-18 Tesla, Inc. Predicting three-dimensional features for autonomous driving
US12136030B2 (en) 2023-03-16 2024-11-05 Tesla, Inc. System and method for adapting a neural network model on a hardware platform

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10137221A (en) * 1996-11-15 1998-05-26 Oki Electric Ind Co Ltd Individual identification system

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10137221A (en) * 1996-11-15 1998-05-26 Oki Electric Ind Co Ltd Individual identification system

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
N. C. F. CODELLA ET AL.: "Deep learning ensembles for melanoma recognition in dermoscopy images", IBM JOURNAL OF RESEARCH AND DEVELOPMENT, vol. Vol. 61, No. 4/5, JPN6022055463, 8 September 2017 (2017-09-08), US, pages 5 - 1, ISSN: 0004955324 *

Cited By (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12020476B2 (en) 2017-03-23 2024-06-25 Tesla, Inc. Data synthesis for autonomous control systems
US11487288B2 (en) 2017-03-23 2022-11-01 Tesla, Inc. Data synthesis for autonomous control systems
US12086097B2 (en) 2017-07-24 2024-09-10 Tesla, Inc. Vector computational unit
US11893393B2 (en) 2017-07-24 2024-02-06 Tesla, Inc. Computational array microprocessor system with hardware arbiter managing memory requests
US11403069B2 (en) 2017-07-24 2022-08-02 Tesla, Inc. Accelerated mathematical engine
US11409692B2 (en) 2017-07-24 2022-08-09 Tesla, Inc. Vector computational unit
US11681649B2 (en) 2017-07-24 2023-06-20 Tesla, Inc. Computational array microprocessor system using non-consecutive data formatting
US11561791B2 (en) 2018-02-01 2023-01-24 Tesla, Inc. Vector computational unit receiving data elements in parallel from a last row of a computational array
US11797304B2 (en) 2018-02-01 2023-10-24 Tesla, Inc. Instruction set architecture for a vector computational unit
US11734562B2 (en) 2018-06-20 2023-08-22 Tesla, Inc. Data pipeline and deep learning system for autonomous driving
US11841434B2 (en) 2018-07-20 2023-12-12 Tesla, Inc. Annotation cross-labeling for autonomous control systems
US12079723B2 (en) 2018-07-26 2024-09-03 Tesla, Inc. Optimizing neural network structures for embedded systems
US11636333B2 (en) 2018-07-26 2023-04-25 Tesla, Inc. Optimizing neural network structures for embedded systems
US11983630B2 (en) 2018-09-03 2024-05-14 Tesla, Inc. Neural networks for embedded devices
US11562231B2 (en) 2018-09-03 2023-01-24 Tesla, Inc. Neural networks for embedded devices
US11893774B2 (en) 2018-10-11 2024-02-06 Tesla, Inc. Systems and methods for training machine models with augmented data
US11665108B2 (en) 2018-10-25 2023-05-30 Tesla, Inc. QoS manager for system on a chip communications
US11816585B2 (en) 2018-12-03 2023-11-14 Tesla, Inc. Machine learning models operating at different frequencies for autonomous vehicles
US11537811B2 (en) 2018-12-04 2022-12-27 Tesla, Inc. Enhanced object detection for autonomous vehicles based on field view
US11908171B2 (en) 2018-12-04 2024-02-20 Tesla, Inc. Enhanced object detection for autonomous vehicles based on field view
US11610117B2 (en) 2018-12-27 2023-03-21 Tesla, Inc. System and method for adapting a neural network model on a hardware platform
US11748620B2 (en) 2019-02-01 2023-09-05 Tesla, Inc. Generating ground truth for machine learning from time series elements
US12014553B2 (en) 2019-02-01 2024-06-18 Tesla, Inc. Predicting three-dimensional features for autonomous driving
US11567514B2 (en) 2019-02-11 2023-01-31 Tesla, Inc. Autonomous and user controlled vehicle summon to a target
US11790664B2 (en) 2019-02-19 2023-10-17 Tesla, Inc. Estimating object properties using visual image data
WO2022038855A1 (en) * 2020-08-17 2022-02-24 カシオ計算機株式会社 Feature amount acquisition device, similar image search device, display device, feature amount acquisition method, similar image search method, display method, and program
AU2021329483B2 (en) * 2020-08-17 2023-11-23 Casio Computer Co., Ltd. Feature amount acquisition device, similar image search device, display device, feature amount acquisition method, similar image search method, display method, and program
JP7056698B2 (en) 2020-08-17 2022-04-19 カシオ計算機株式会社 Feature amount acquisition device, similar image search device, display device, feature amount acquisition method, similar image search method, display method and program
JP2022033429A (en) * 2020-08-17 2022-03-02 カシオ計算機株式会社 Feature amount acquisition device, similar image retrieval apparatus, display apparatus, feature amount acquisition method, similar image retrieval method, display method, and program
WO2022124224A1 (en) * 2020-12-09 2022-06-16 ブラザー工業株式会社 Method, system, and computer program
WO2022185473A1 (en) * 2021-03-04 2022-09-09 日本電気株式会社 Object detection model generation device, object detection model generation method, object detection device, object detection method, and recording medium
US12136030B2 (en) 2023-03-16 2024-11-05 Tesla, Inc. System and method for adapting a neural network model on a hardware platform

Also Published As

Publication number Publication date
JP7293644B2 (en) 2023-06-20

Similar Documents

Publication Publication Date Title
JP2020101927A (en) Image identification device, identifier learning method, image identification method and program
US10482603B1 (en) Medical image segmentation using an integrated edge guidance module and object segmentation network
US11861829B2 (en) Deep learning based medical image detection method and related device
US10410353B2 (en) Multi-label semantic boundary detection system
Sarker et al. SLSDeep: Skin lesion segmentation based on dilated residual and pyramid pooling networks
Amin et al. Use of machine intelligence to conduct analysis of human brain data for detection of abnormalities in its cognitive functions
US10853409B2 (en) Systems and methods for image search
Rahman et al. A framework for fast automatic image cropping based on deep saliency map detection and gaussian filter
Reza et al. Multi-fractal texture features for brain tumor and edema segmentation
JP2013192624A (en) Medical image diagnosis supporting apparatus, medical image diagnosis supporting method and computer program
Jenitta et al. Image retrieval based on local mesh vector co-occurrence pattern for medical diagnosis from MRI brain images
Katzmann et al. Explaining clinical decision support systems in medical imaging using cycle-consistent activation maximization
CN112561877A (en) Multi-scale double-channel convolution model training method, image processing method and device
Nguyen et al. ASMCNN: An efficient brain extraction using active shape model and convolutional neural networks
Yanling et al. Segmenting vitiligo on clinical face images using CNN trained on synthetic and internet images
Shanker et al. Brain tumor segmentation of normal and lesion tissues using hybrid clustering and hierarchical centroid shape descriptor
Santos et al. A new approach for fundus lesions instance segmentation based on mask r-cnn x101-fpn pre-trained architecture
Alhassan An improved breast cancer classification with hybrid chaotic sand cat and Remora Optimization feature selection algorithm
CN113822846A (en) Method, apparatus, device and medium for determining region of interest in medical image
Han et al. Slim Scissors: Segmenting Thin Object from Synthetic Background
Ellis et al. Classification of 2D Ultrasound Breast Cancer Images with Deep Learning
Gonçalves et al. Deep aesthetic assessment of breast cancer surgery outcomes
Kang et al. Dense dilated attentive network for automatic classification of femur trochanteric fracture
Siri et al. An improved expectation-maximization algorithm to detect liver image boundary in ct scan images
CN112330652A (en) Chromosome recognition method and device based on deep learning and computer equipment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211209

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230303

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230509

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230522

R150 Certificate of patent or registration of utility model

Ref document number: 7293644

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150