JP2020086786A - Detection device and machine learning method - Google Patents

Detection device and machine learning method Download PDF

Info

Publication number
JP2020086786A
JP2020086786A JP2018218549A JP2018218549A JP2020086786A JP 2020086786 A JP2020086786 A JP 2020086786A JP 2018218549 A JP2018218549 A JP 2018218549A JP 2018218549 A JP2018218549 A JP 2018218549A JP 2020086786 A JP2020086786 A JP 2020086786A
Authority
JP
Japan
Prior art keywords
data
learning
unit
evaluation
feature extraction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018218549A
Other languages
Japanese (ja)
Other versions
JP7251955B2 (en
Inventor
泰弘 芝▲崎▼
Yasuhiro Shibasaki
泰弘 芝▲崎▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Priority to JP2018218549A priority Critical patent/JP7251955B2/en
Publication of JP2020086786A publication Critical patent/JP2020086786A/en
Application granted granted Critical
Publication of JP7251955B2 publication Critical patent/JP7251955B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Testing And Monitoring For Control Systems (AREA)

Abstract

To provide a detection device supporting selection of an algorithm and adjustment of parameters of feature extraction used for preprocessing of data utilized for detection processing.SOLUTION: A detection device 1 of the present invention comprises: a plurality of feature extraction units 36 extracting data according to feature of data from the data according to an industrial machinery 2; a preprocessing unit 34 generating a pair of learning data and evaluation data from the data according to the industrial machinery 2 using each of the feature extraction units 36, respectively; a learning unit 110 performing machine learning based on each of the learning data to generate a plurality of learning models, respectively; an estimation unit 120 estimating with the learning models generated by using the learning data corresponding to the evaluation data, based on the evaluation data; and an evaluation unit 38 evaluating the accuracy of learning/estimation of the learning models based on the estimation result by the estimation unit 120, and outputting the evaluation result of the corresponding feature extraction unit 36 based on the evaluation result.SELECTED DRAWING: Figure 2

Description

本発明は、検出装置及び機械学習方法に関する。 The present invention relates to a detection device and a machine learning method.

工場等の製造現場では、製造された製品の良品/不良品検出や、ラインを流れてくる製品の物体検出、産業機械の故障検出等が行われている。このような様々な検出作業は、従来は経験を積んだ作業者が目視で、又はセンサが検知した値を参照しながら行っていた。しかしながら、人手による検出作業では、各作業者の経験の違いに基づく判断基準の違いや、体調変化により集中力を欠いたりする等の理由で、その検出精度にブレが生じるという問題が生じる。そのため、多くの製造現場では様々な検出作業に、センサ等により検知した値に基づいて機械的に自動判定する検出装置を導入している。 At manufacturing sites such as factories, non-defective products/defective products of manufactured products are detected, objects of products flowing in a line are detected, and failures of industrial machines are detected. Such various detection operations have conventionally been performed visually by an experienced operator or with reference to the values detected by the sensor. However, in the manual detection work, there arises a problem in that the detection accuracy of the detection work varies due to a difference in judgment criteria based on a difference in experience of each worker, lack of concentration due to a change in physical condition, and the like. For this reason, many manufacturing sites have introduced a detection device for various detection operations, which makes a mechanical automatic determination based on a value detected by a sensor or the like.

製造現場に設置される検出装置が自動判定に用いるデータとしては、多くの場合、数値データだけでなく、例えば画像や信号、文字等の非数値データが扱われる。このような非数値データを自動判定に用いる場合には、そのままでは判定式等に入力することができないため、そのデータの特徴部分を示す数値データへと変換する特徴抽出処理が施された上で自動判定に用いられる。 In many cases, not only numerical data but also non-numeric data such as images, signals, and characters are handled as data used by the detection device installed in the manufacturing site for automatic determination. When such non-numeric data is used for automatic judgment, it cannot be input as it is into the judgment formula, etc., so it is subjected to the feature extraction processing to convert it to numeric data indicating the characteristic part of the data. Used for automatic judgment.

製造現場等で用いられる検出装置に係る従来技術として、例えば特許文献1〜3には、機械学習等の技術を用いて検出処理を行う技術が開示されている。 As a conventional technique related to a detection device used at a manufacturing site or the like, for example, Patent Documents 1 to 3 disclose a technique of performing a detection process using a technique such as machine learning.

特開2017−097718号公報JP, 2017-097718, A 特開2017−076289号公報JP, 2017-076289, A 特開2015−185149号公報JP, 2005-185149, A

機械学習による検出処理において深層学習(ディープラーニング)の手法が用いられるようになっている。検出処理において深層学習を用いると、大規模なラベル付けされたデータに対して多層ニューラルネットワークの構造を利用して学習を行い、データから自動的に特徴部分を抽出して学習及び推定をすることができるようになる。しかしながら、このような処理を行うためには、GPU(Graphical Processing Unit)等を用いた大規模な処理を行う必要があり、機器性能や計算時間の負荷が大きいという問題がある。 A deep learning method has been used in the detection processing by machine learning. If deep learning is used in the detection process, learning can be performed by using the structure of a multi-layer neural network for large-scale labeled data and automatically extracting and extracting feature parts from the data for learning and estimation. Will be able to. However, in order to perform such a process, it is necessary to perform a large-scale process using a GPU (Graphical Processing Unit) or the like, which causes a problem that the device performance and the calculation time are heavy.

これに対して、前処理の段階でデータに特化した特徴抽出処理を行い、小規模な機械学習機を学習及び推定に用いるように検出装置を構成すると、深層学習の技術で自動的に特徴抽出を行う場合と比較すると計算負荷が小さくなる事が多い。このような特徴抽出処理を行う場合には、それぞれのデータから学習に適した特徴データを抽出するために、適切な特徴抽出のアルゴリズムを選択し、また、選択した特徴抽出アルゴリズムのパラメータを適切に調整することで、機械学習器における学習及び推定の計算負荷を抑えつつ精度を向上させることができる。しかしながら、適切な特徴抽出のアルゴリズムの選択と、適切なパラメータの調整とを人手で行うと最適化に時間が掛かり、アルゴリズムの選択及びパラメータの調整の根拠が曖昧になるという問題がある。また、特徴抽出の手法を新規に検討した際にも、既存の手法に対する学習及び推論精度向上を検証する必要があるが、この作業にも工数が掛かる。 On the other hand, if feature detection processing specialized for data is performed in the pre-processing stage and the detection device is configured to use a small-scale machine learning machine for learning and estimation, deep learning technology automatically The calculation load is often smaller than that when extraction is performed. When performing such feature extraction processing, in order to extract feature data suitable for learning from each data, an appropriate feature extraction algorithm is selected, and the parameters of the selected feature extraction algorithm are appropriately set. By adjusting, the accuracy can be improved while suppressing the calculation load of learning and estimation in the machine learning device. However, when manually selecting an appropriate feature extraction algorithm and appropriately adjusting parameters, optimization takes time, and there is a problem that the basis for selecting algorithms and adjusting parameters becomes ambiguous. Further, even when a new feature extraction method is examined, it is necessary to verify learning and inference accuracy improvement with respect to the existing method, but this work also requires man-hours.

そこで本発明の目的は、検出処理に用いられるデータの前処理に用いる特徴抽出のアルゴリズムの選択やパラメータの調整を支援する検出装置を提供することである。 Therefore, an object of the present invention is to provide a detection device that supports selection of a feature extraction algorithm used for preprocessing of data used for detection processing and adjustment of parameters.

本発明では、データからの特徴抽出(前処理)の段階と、学習乃至推論(学習コア)を行う段階とをそれぞれ実行する検出装置において、非数値データ(画像や信号や文字等)を複数方式で前処理(エッジ検出やスペクトル解析等)し、合成結果(N次元ベクトル)で学習乃至推論(教師なし分類や教師あり回帰等)をする事で、推論精度を高める前処理方式を自動に選択する(最適な抽出方式選択時相当の精度を出す)機能を設けることで、上記課題を解決する。 According to the present invention, a non-numerical data (image, signal, character, etc.) is detected by a plurality of methods in a detection device that performs a feature extraction (preprocessing) step from data and a learning or inference (learning core) step. Preprocessing (edge detection, spectrum analysis, etc.), and learning or inference (unsupervised classification, regression with teacher, etc.) with the combined result (N-dimensional vector) automatically selects a preprocessing method that improves inference accuracy. The above problem is solved by providing a function (providing accuracy equivalent to that when selecting the optimum extraction method).

そして、本発明の一態様は、産業機械に係るデータに基づく検出処理を行う検出装置であって、前記産業機械に係るデータから該データの特徴に係るデータを抽出する複数の特徴抽出部を備え、それぞれの特徴抽出部を用いて前記産業機械に係るデータから学習データ及び評価データの組をそれぞれ作成する前処理部と、それぞれの前記学習データに基づいた機械学習を行い、複数の学習モデルをそれぞれ生成する学習部と、前記評価データに基づいて、該評価データに対応する学習データを用いて生成された学習モデルを用いた推定を行う推定部と、前記推定部による推定結果に基づいて、前記学習モデルの学習乃至推定の精度に関する評価を行い、その評価結果に基づいて、対応する前記特徴抽出部の評価結果を出力する評価部と、を備えた検出装置である。 An aspect of the present invention is a detection device that performs a detection process based on data related to an industrial machine, and includes a plurality of feature extraction units that extract data related to the features of the data from the data related to the industrial machine. , A pre-processing unit that respectively creates a set of learning data and evaluation data from the data related to the industrial machine using each feature extraction unit, and performs machine learning based on each of the learning data to generate a plurality of learning models. Based on the estimation part by the estimation part by which the learning part each produced|generated and the said evaluation data, the estimation using the learning model produced|generated using the learning data corresponding to the said evaluation data, and the said estimation part, An evaluation unit that evaluates the accuracy of learning or estimation of the learning model and outputs the evaluation result of the corresponding feature extraction unit based on the evaluation result.

本発明の他の態様は、産業機械に係るデータに基づく検出処理に係る機械学習方法であって、前記産業機械に係るデータから該データの特徴に係るデータを抽出する複数の特徴抽出手法をそれぞれ用いて前記産業機械に係るデータから学習データ及び評価データの組をそれぞれ作成する前処理ステップと、それぞれの前記学習データに基づいた機械学習を行い、複数の学習モデルをそれぞれ生成する学習ステップと、前記評価データに基づいて、該評価データに対応する学習データを用いて生成された学習モデルを用いた推定を行う推定ステップと、前記推定ステップによる推定結果に基づいて、前記学習モデルの学習乃至推定の精度に関する評価を行い、その評価結果に基づいて、対応する前記特徴抽出部の評価結果を出力する評価ステップと、を備えた機械学習方法である。 Another aspect of the present invention is a machine learning method related to a detection process based on data related to an industrial machine, and a plurality of feature extraction methods for extracting data related to a feature of the data from the data related to the industrial machine, respectively. A pre-processing step of creating a set of learning data and evaluation data from the data related to the industrial machine, and a learning step of performing machine learning based on each of the learning data and generating a plurality of learning models, respectively. Based on the evaluation data, an estimation step of performing estimation using a learning model generated using learning data corresponding to the evaluation data, and learning or estimation of the learning model based on the estimation result of the estimation step. Is performed, and an evaluation step of outputting the evaluation result of the corresponding feature extraction unit based on the evaluation result is performed.

本発明により、機器性能が低い装置においても、比較的短時間で学習乃至推論を行うことができるようになる。また、作業者の能力や経験によらずに一定の手順で短時間に最適なパラメータを選択することができるようになるため、推論精度の向上が見込まれる。更に、新規前処理方式を導入する際には、既存処理群に対して新規前処理方式を単に追加すれば良いため、検証工数を減らすことができる。 According to the present invention, it becomes possible to perform learning or inference in a relatively short time even in a device having low device performance. Further, since it becomes possible to select the optimum parameter in a short time in a fixed procedure regardless of the ability and experience of the worker, it is expected that the inference accuracy will be improved. Furthermore, when introducing the new pretreatment method, it is sufficient to simply add the new pretreatment method to the existing processing group, and therefore the number of verification steps can be reduced.

一実施形態による検出装置の概略的なハードウェア構成図である。It is a schematic hardware block diagram of the detection apparatus by one Embodiment. 一実施形態による検出装置の概略的な機能ブロック図である。FIG. 3 is a schematic functional block diagram of a detection device according to an embodiment. 前処理部が備える特徴抽出部の例を示す図である。It is a figure which shows the example of the feature extraction part with which a preprocessing part is provided. 前処理部が備える特徴抽出部の他の例を示す図である。It is a figure which shows the other example of the feature extraction part with which a preprocessing part is equipped. 前処理部による学習データ、評価データの作成の例を示す図である。It is a figure which shows the example of preparation of the learning data and evaluation data by a pre-processing part. 前処理部による学習データ、評価データの作成の他の例を示す図である。It is a figure which shows the other example of preparation of the learning data and evaluation data by a preprocessing part. 評価部による特徴抽出部の評価の流れを説明する図である。It is a figure explaining the flow of evaluation of the feature extraction part by an evaluation part.

以下、本発明の実施形態を図面と共に説明する。
図1は一実施形態による機械学習装置を備えた検出装置の要部を示す概略的なハードウェア構成図である。本実施形態の検出装置1は、例えば搬送機械やロボット等の産業機械2を制御する制御装置上に実装することができる。また、本実施形態の検出装置1は、搬送機械やロボット等の産業機械2を制御する制御装置と併設されたパソコンや、該制御装置と有線/無線のネットワークを介して接続されたエッジコンピュータ、セルコンピュータ、ホストコンピュータ、クラウドサーバ等のコンピュータとして実装することができる。本実施形態では、検出装置1を、搬送機械やロボット等の産業機械2を制御する制御装置に有線/無線のネットワークを介して接続されたコンピュータとして実装した場合の例を示す。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a schematic hardware configuration diagram showing a main part of a detection device including a machine learning device according to an embodiment. The detection device 1 of the present embodiment can be mounted on a control device that controls an industrial machine 2 such as a transport machine or a robot. Further, the detection device 1 of the present embodiment includes a personal computer installed together with a control device that controls the industrial machine 2 such as a transport machine or a robot, an edge computer connected to the control device via a wired/wireless network, It can be implemented as a computer such as a cell computer, a host computer, or a cloud server. In the present embodiment, an example in which the detection device 1 is implemented as a computer connected to a control device that controls an industrial machine 2 such as a transport machine or a robot via a wired/wireless network is shown.

本実施形態による検出装置1が備えるCPU11は、検出装置1を全体的に制御するプロセッサである。CPU11は、ROM12に格納されたシステム・プログラムをバス20を介して読み出し、該システム・プログラムに従って検出装置1全体を制御する。RAM13には一時的な計算データ、入力装置71を介して作業者が入力した各種データ等が一時的に格納される。 The CPU 11 included in the detection device 1 according to the present embodiment is a processor that controls the detection device 1 as a whole. The CPU 11 reads out the system program stored in the ROM 12 via the bus 20 and controls the entire detection device 1 according to the system program. The RAM 13 temporarily stores temporary calculation data, various data input by the operator via the input device 71, and the like.

不揮発性メモリ14は、例えば図示しないバッテリでバックアップされたメモリやSSD(Solid State Drive)等で構成され、検出装置1の電源がオフされても記憶状態が保持される。不揮発性メモリ14には、検出装置1の動作に係る設定情報が格納される設定領域や、入力装置71から入力されたデータ、産業機械2から取得されるデータ(画像データ、音声データ、時系列データ、文字データ等)、機械学習装置100から取得したデータ、図示しない外部記憶装置やネットワークを介して読み込まれたデータ等が記憶される。不揮発性メモリ14に記憶されたプログラムや各種データは、実行時/利用時にはRAM13に展開されても良い。また、ROM12には、各種データを解析するための公知の解析プログラム等を含むシステム・プログラムが予め書き込まれている。 The non-volatile memory 14 is composed of, for example, a memory backed up by a battery (not shown), an SSD (Solid State Drive), or the like, and retains the storage state even when the power of the detection device 1 is turned off. In the non-volatile memory 14, a setting area in which setting information related to the operation of the detection device 1 is stored, data input from the input device 71, data acquired from the industrial machine 2 (image data, audio data, time series). Data, character data, etc.), data acquired from the machine learning device 100, data read via an external storage device (not shown) or a network, and the like are stored. The programs and various data stored in the non-volatile memory 14 may be expanded in the RAM 13 at the time of execution/use. A system program including a known analysis program for analyzing various data is written in the ROM 12 in advance.

産業機械2は、例えば工作機械、搬送機械、ロボット、鉱山機械、木工機械、農業機械、建設機械等を対象とすることができる。産業機械2には、該産業機械2は原動機等の各部の動作に係る情報を取得する事ができるように構成されており、また、別途撮像センサや音声センサ等のセンサ等を取り付けて該産業機械2の動作に必要とされる情報が取得できるように構成される。産業機械2が取得した情報は、有線/無線のネットワーク5及びインタフェース16を介して検出装置1に取得され、RAM13、不揮発性メモリ14等に格納される。また、検出装置1は、必要に応じて産業機械2に対して所定の制御信号をインタフェース16及びネットワーク5を介して出力する。 The industrial machine 2 can be, for example, a machine tool, a carrier machine, a robot, a mining machine, a woodworking machine, an agricultural machine, a construction machine, or the like. The industrial machine 2 is configured such that the industrial machine 2 can acquire information related to the operation of each unit such as a prime mover. Further, a sensor such as an image sensor or a voice sensor is separately attached to the industrial machine 2. It is configured so that information required for the operation of the machine 2 can be acquired. The information acquired by the industrial machine 2 is acquired by the detection device 1 via the wired/wireless network 5 and the interface 16 and stored in the RAM 13, the nonvolatile memory 14, or the like. Further, the detection device 1 outputs a predetermined control signal to the industrial machine 2 via the interface 16 and the network 5 as necessary.

表示装置70には、メモリ上に読み込まれた各データ、プログラム等が実行された結果として得られたデータ、後述する機械学習装置100から出力されたデータ等がインタフェース17を介して出力されて表示される。また、キーボードやポインティングデバイス等から構成される入力装置71は、作業者による操作に基づく指令,データ等をインタフェース18を介してCPU11に渡す。 On the display device 70, each data read in the memory, data obtained as a result of execution of a program, etc., data output from the machine learning device 100 described later, etc. are output via the interface 17 and displayed. To be done. Further, the input device 71 including a keyboard, a pointing device, and the like passes commands, data, and the like based on the operation of the operator to the CPU 11 via the interface 18.

インタフェース21は、検出装置1と機械学習装置100とを接続するためのインタフェースである。機械学習装置100は、機械学習装置100全体を統御するプロセッサ101と、システム・プログラム等を記憶したROM102、機械学習に係る各処理における一時的な記憶を行うためのRAM103、及び学習モデル等の記憶に用いられる不揮発性メモリ104を備える。機械学習装置100は、インタフェース21を介して検出装置1で取得可能な各情報(例えば、産業機械2から取得された画像データ、音声データ、時系列データ、文字データ等)を観測することができる。また、検出装置1は、機械学習装置100から出力される処理結果をインタフェース21を介して取得し、取得した結果を記憶したり、表示したり、他の装置に対してネットワーク5等を介して送信する。 The interface 21 is an interface for connecting the detection device 1 and the machine learning device 100. The machine learning device 100 includes a processor 101 that controls the entire machine learning device 100, a ROM 102 that stores a system program and the like, a RAM 103 that temporarily stores each process related to machine learning, and a storage of a learning model and the like. A non-volatile memory 104 used for The machine learning device 100 can observe each information that can be acquired by the detection device 1 via the interface 21 (for example, image data, voice data, time series data, character data, etc. acquired from the industrial machine 2). .. Further, the detection device 1 acquires the processing result output from the machine learning device 100 via the interface 21, stores and displays the acquired result, and displays the acquired result to another device via the network 5 or the like. Send.

図2は、一実施形態による検出装置1と機械学習装置100の概略的な機能ブロック図である。本実施形態の検出装置1は、機械学習装置100が学習を行う場合に必要とされる構成を備えている(学習モード)。図2に示した各機能ブロックは、図1に示した検出装置1が備えるCPU11、及び機械学習装置100のプロセッサ101が、それぞれのシステム・プログラムを実行し、検出装置1及び機械学習装置100の各部の動作を制御することにより実現される。 FIG. 2 is a schematic functional block diagram of the detection device 1 and the machine learning device 100 according to the embodiment. The detection device 1 of this embodiment has a configuration required when the machine learning device 100 performs learning (learning mode). In each functional block shown in FIG. 2, the CPU 11 included in the detection device 1 shown in FIG. 1 and the processor 101 of the machine learning device 100 execute respective system programs, and the detection device 1 and the machine learning device 100 have the same function. It is realized by controlling the operation of each unit.

本実施形態の検出装置1は、データ取得部30,データセット生成部32、前処理部34、評価部38を備え、前処理部34は、複数の特徴抽出部36を備えている。また、不揮発性メモリ14上には、データ取得部30が取得した取得データ記憶部50が設けられており、機械学習装置100の不揮発性メモリ104上には、学習部110による機械学習により構築された学習モデルを記憶する学習モデル記憶部130が設けられている。 The detection device 1 of the present embodiment includes a data acquisition unit 30, a data set generation unit 32, a preprocessing unit 34, and an evaluation unit 38, and the preprocessing unit 34 includes a plurality of feature extraction units 36. Further, the acquired data storage unit 50 acquired by the data acquisition unit 30 is provided on the nonvolatile memory 14, and the acquired data storage unit 50 acquired by the data acquisition unit 30 is constructed on the nonvolatile memory 104 of the machine learning device 100 by machine learning by the learning unit 110. A learning model storage unit 130 for storing the learning model is provided.

データ取得部30は、産業機械2、及び入力装置71等から各種データを取得する機能手段である。データ取得部30は、例えば、産業機械2から取得された検出対象の画像データ、産業機械2の動作音や電動機の電圧値/電流値、産業機械2の各部の温度分布データ等と、各々の該データに対して作業者が付与したラベル値の組を取得し、取得データ記憶部50に記憶する。データ取得部30は、図示しない外部記憶装置や有線/無線のネットワークを介して他の装置からデータを取得するようにしても良い。 The data acquisition unit 30 is a functional unit that acquires various data from the industrial machine 2, the input device 71, and the like. The data acquisition unit 30 includes, for example, image data of a detection target acquired from the industrial machine 2, operation noise of the industrial machine 2, voltage value/current value of the electric motor, temperature distribution data of each part of the industrial machine 2, and the like. A set of label values given by the operator to the data is acquired and stored in the acquired data storage unit 50. The data acquisition unit 30 may acquire data from another device via an external storage device (not shown) or a wired/wireless network.

データセット生成部32は、取得データ記憶部50に記憶された複数のデータについて、予め定めた所定の数又は所定の割合のデータを学習用のデータセットとし、その他のデータを評価用のデータセットとして分割する機能手段である。データセット生成部32が分割するそれぞれのサブデータセットは、偏りが起きにくいように分割することが望ましく、例えば取得データ記憶部50に記憶されているデータの中から学習用のデータセットとするデータをランダムに選んだり、系統抽出法等の統計的な標本抽出法を用いることで、それぞれのデータセットに分割するようにしても良い。 The data set generation unit 32 sets a predetermined number or a predetermined ratio of a plurality of data stored in the acquired data storage unit 50 as a learning data set, and other data as an evaluation data set. Is a functional means of dividing as. It is desirable that each of the sub-data sets divided by the data set generation unit 32 be divided so that bias is unlikely to occur, and for example, data to be used as a learning data set from the data stored in the acquired data storage unit 50. May be randomly selected or may be divided into each data set by using a statistical sampling method such as a systematic sampling method.

前処理部34は、データセット生成部32が生成した学習用のデータセット及び評価用のデータセットに対して、特徴抽出部36によるデータの変換を行う機能手段である。前処理部34は、複数の特徴抽出部36を備えており、予め設定された前処理要件に従ってデータセットに含まれるそれぞれのデータを順に特徴抽出部36に入力してデータの変換を行う。 The preprocessing unit 34 is a functional unit that performs data conversion by the feature extraction unit 36 on the learning data set and the evaluation data set generated by the data set generation unit 32. The pre-processing unit 34 includes a plurality of feature extraction units 36, and sequentially inputs each data included in the data set to the feature extraction unit 36 according to a preset pre-processing requirement to perform data conversion.

前処理部34に設定する前処理要件は、データセットに含まれるデータに対する1乃至複数の特徴抽出部36によるデータの変換順序を規定する。前処理要件の例としては、データセットに含まれる画像データに対して所謂コーナ検出処理を行う特徴抽出部36を適用する手順が挙げられる。また、前処理要件の他の例としては、データセットに含まれる画像データに対して所定のレベル補正処理を行う特徴抽出部36を適用した後に、エッジ検出処理を行う特徴抽出部36を適用する手順が挙げられる。更に、前処理要件の他の例としては、データセットに含まれる音声データに対してノイズ除去処理を行う特徴抽出部36を適用した後に、音特徴抽出処理を行う特徴抽出部36を適用する手順が挙げられる。前処理要件は、予め検出装置が検出するデータの種別や検出の目的に合わせて、前処理部34に設定しておく。 The preprocessing requirement set in the preprocessing unit 34 defines the conversion order of the data included in the data set by the one or more feature extraction units 36. An example of the preprocessing requirement is a procedure of applying the feature extraction unit 36 that performs so-called corner detection processing on image data included in a data set. Further, as another example of the preprocessing requirement, after applying the feature extraction unit 36 that performs a predetermined level correction process on the image data included in the data set, the feature extraction unit 36 that performs the edge detection process is applied. There are procedures. Furthermore, as another example of the preprocessing requirement, a procedure of applying the feature extraction unit 36 that performs the noise removal process to the voice data included in the data set and then the feature extraction unit 36 that performs the sound feature extraction process. Is mentioned. The preprocessing requirements are set in advance in the preprocessing unit 34 according to the type of data detected by the detection device and the purpose of detection.

前処理部34が備える特徴抽出部36は、データセットに含まれるそれぞれのデータの特徴部分を学習乃至推定用に抽出する機能手段である。複数の特徴抽出部36は、それぞれ所定の特徴抽出処理を行うためのものであり、また、同じ種類の特徴抽出処理を行うもの同士では、当該処理に用いられるパラメータ又はアルゴリズムが異なる。 The feature extraction unit 36 included in the preprocessing unit 34 is a functional unit that extracts a feature portion of each data included in the data set for learning or estimation. The plurality of feature extraction units 36 are each for performing a predetermined feature extraction process, and those performing the same type of feature extraction process have different parameters or algorithms used in the process.

図3は、画像データの特徴抽出処理を行う特徴抽出部36の例を示す図である。図3の例では、前処理部34は、コーナ検出の特徴抽出処理を行う特徴抽出部36として、特徴抽出部A1〜A3を備えており、いずれもコーナ検出アルゴリズムであるAKAZE(Accelerated KAZEアルゴリズム)を用いており、感度パラメータが特徴抽出部A1は標準感度の1.0倍、特徴抽出部A2は1.5倍、特徴抽出部A3は2.0倍に設定されている。 FIG. 3 is a diagram illustrating an example of the feature extraction unit 36 that performs the feature extraction processing of image data. In the example of FIG. 3, the preprocessing unit 34 includes the feature extraction units A1 to A3 as the feature extraction unit 36 that performs the feature detection process for corner detection, and all of them are corner detection algorithms AKAZE (Accelerated KAZE algorithm). The sensitivity parameter is set to 1.0 times the standard sensitivity, the characteristic extraction unit A2 is set to 1.5 times, and the characteristic extraction unit A3 is set to 2.0 times the standard sensitivity.

また、図4は、音声データの特徴抽出処理を行う特徴抽出部36の例を示す図である。図4の例では、前処理部34は、ノイズ除去の特徴抽出処理を行う特徴抽出部36として、特徴抽出部B1〜B3を備えており、いずれもノイズ除去アルゴリズムとしてスペクトルサブトラクション(SS)法を用いており、窓幅パラメータが特徴抽出部B1は標準窓幅の1.0倍、特徴抽出部B2は1.5倍、特徴抽出部B3は2.0倍に設定されている。また、前処理部34は、音特徴抽出の特徴抽出処理を行う特徴抽出部36として、特徴抽出部C1〜C2を備えており、特徴抽出部C1は音特徴抽出アルゴリズムとしてメル周波数ケプストラム係数(MFCC)を用い、特徴抽出部C2は音特徴抽出アルゴリズムとしてFFT(Fast Fourier Transform)とケプストラムを用いている。 In addition, FIG. 4 is a diagram illustrating an example of the feature extraction unit 36 that performs feature extraction processing of audio data. In the example of FIG. 4, the preprocessing unit 34 includes the feature extraction units B1 to B3 as the feature extraction unit 36 that performs the feature extraction process of noise removal, and all of them use the spectral subtraction (SS) method as the noise removal algorithm. The window width parameter is set to 1.0 times the standard window width for the feature extraction unit B1, 1.5 times for the feature extraction unit B2, and 2.0 times for the feature extraction unit B3. Further, the preprocessing unit 34 includes feature extraction units C1 and C2 as the feature extraction unit 36 that performs the feature extraction process of the sound feature extraction, and the feature extraction unit C1 uses the mel frequency cepstrum coefficient (MFCCC) as the sound feature extraction algorithm. ), and the feature extraction unit C2 uses an FFT (Fast Fourier Transform) and a cepstrum as a sound feature extraction algorithm.

前処理部34は、上記したように前処理の対象となるデータの種類に応じて用意された複数の特徴抽出部36を用いて、予め設定された前処理要件に従って、それぞれの特徴抽出部36を適用した学習データを生成する。図5は、図3に例示される特徴抽出部A1〜A3を備えた前処理部34による処理を説明する図である。図5の例では、前処理部34は、データセット生成部32により生成された学習用データセットに含まれる各データを特徴抽出部A1〜A3を用いて変換した学習データa1〜a3を作成し、また、評価用データセットに含まれる各データを特徴抽出部A1〜A3を用いて変換して評価データa1〜a3を作成する。 The preprocessing unit 34 uses the plurality of feature extraction units 36 prepared according to the type of data to be preprocessed as described above, and according to the preset preprocessing requirements, the respective feature extraction units 36. Generate learning data by applying. FIG. 5 is a diagram illustrating a process performed by the preprocessing unit 34 including the feature extraction units A1 to A3 illustrated in FIG. In the example of FIG. 5, the preprocessing unit 34 creates learning data a1 to a3 by converting each data included in the learning data set generated by the data set generation unit 32 using the feature extraction units A1 to A3. Also, each data included in the evaluation data set is converted by using the feature extraction units A1 to A3 to create evaluation data a1 to a3.

図6は、図4に例示される特徴抽出部B1〜B3,C1〜C2を備えた前処理部34による処理を説明する図である。前処理部34には、予め音声データに対してノイズ除去処理を施してから、音特徴抽出処理を実行することが前処理要件として設定されている。図6の例では、前処理部34は前処理要件に従って、特徴抽出部B1〜B3から選択された特徴抽出部と、特徴抽出部C1〜C2から選択された特徴抽出部との組を作成し、作成した特徴抽出部の組をそれぞれを用いて、学習用データセットから学習データb1〜a6を、評価用データセットから評価データb1〜a6を作成する。 FIG. 6 is a diagram illustrating a process performed by the preprocessing unit 34 including the feature extraction units B1 to B3 and C1 to C2 illustrated in FIG. The pre-processing unit 34 is set as a pre-processing requirement to perform noise removal processing on voice data in advance and then execute sound feature extraction processing. In the example of FIG. 6, the preprocessing unit 34 creates a set of the feature extraction unit selected from the feature extraction units B1 to B3 and the feature extraction unit selected from the feature extraction units C1 to C2 according to the preprocessing requirements. , The learning data sets b1 to a6 are created from the learning data set and the evaluation data sets b1 to a6 are created from the evaluation data set.

学習部110は、前処理部34が作成したそれぞれの学習データのセットを用いた機械学習を行い、複数の学習モデルを生成する。学習部110は、教師なし学習、教師あり学習等の公知の機械学習の手法により、産業機械2から取得され、前処理部34により前処理された学習データの複数のセットをそれぞれ用いた機械学習を行うことで複数の学習モデルを生成し、生成した複数の学習モデルを学習モデル記憶部130に記憶する。学習部110が行う教師なし学習の手法としては、例えばk−means法等が、教師あり学習の手法としては、例えば一般的なニューラルネットワークやSVM等が挙げられる。 The learning unit 110 performs machine learning using each set of learning data created by the preprocessing unit 34 and generates a plurality of learning models. The learning unit 110 uses each of a plurality of sets of learning data acquired from the industrial machine 2 and preprocessed by the preprocessing unit 34 by a known machine learning method such as unsupervised learning and supervised learning. To generate a plurality of learning models and store the generated plurality of learning models in the learning model storage unit 130. The unsupervised learning method performed by the learning unit 110 is, for example, the k-means method, and the supervised learning method is, for example, a general neural network or SVM.

一方、推定部120は、前処理部34が作成したそれぞれの評価データのセットに基づいて、学習モデル記憶部130に記憶された学習モデルを用いた状態の推定を行う。本実施形態の推定部120では、前処理部34において所定の特徴抽出部36を用いて作成された評価データのセットについては、同一の特徴抽出部36を用いて作成された学習データのセットを用いて学習部110が生成した学習モデルを用いた推定を行う。 On the other hand, the estimation unit 120 estimates the state using the learning model stored in the learning model storage unit 130 based on each set of evaluation data created by the preprocessing unit 34. In the estimation unit 120 of the present embodiment, for the set of evaluation data created by the pre-processing unit 34 using the predetermined feature extraction unit 36, the set of learning data created by the same feature extraction unit 36 is used. The estimation using the learning model generated by the learning unit 110 is performed.

評価部38は、推定部120により推定された、評価データに対する推論の結果に基づいて、それぞれの学習モデルの学習乃至推論の精度を評価し、その評価結果に基づいて、該学習モデルを生成する際に用いられた特徴抽出部36の評価を行う機能手段である。評価部38は、評価データのセットに含まれるそれぞれの評価データに対する推定部120による推論の結果について、それぞれの評価データに付与されているラベル値と比較することにより、推定部120による推論結果の正誤を判定する。次に、評価部38は、各評価データに関する推論結果に対して公知の統計的手法(例えば、ラベルに対する最小事情誤差量等)や、ROC曲線、AUC等の公知の機械学習の評価指標を用いて、その推論に用いられた学習モデルの学習乃至推論の精度を評価する。そして、評価部38は、学習モデルの学習乃至推論の精度に基づいて、該学習モデルを生成する際に用いられた特徴抽出部36の評価を行う。このような処理を、評価部38は学習モデル記憶部130に記憶されているそれぞれの学習モデルに対して行う。評価部38による評価結果は、表示装置70に表示出力したり、ネットワーク5を介してホストコンピュータやクラウドコンピュータ等に送信出力して利用するようにしても良い。評価部38は、最も学習乃至推論の精度が高い学習モデルの生成に用いられた特徴抽出部36についてのみ、表示出力等を行うようにしても良い。 The evaluation unit 38 evaluates the learning or inference accuracy of each learning model based on the result of the inference with respect to the evaluation data estimated by the estimation unit 120, and generates the learning model based on the evaluation result. It is a functional unit that evaluates the feature extraction unit 36 used at that time. The evaluation unit 38 compares the inference result by the estimation unit 120 with respect to each evaluation data included in the evaluation data set with the label value assigned to each evaluation data, and thereby the inference result of the estimation unit 120 is obtained. Determine correctness. Next, the evaluation unit 38 uses a known statistical method (for example, the minimum circumstance error amount for the label) for the inference result regarding each evaluation data, and a known machine learning evaluation index such as an ROC curve and AUC. Then, the accuracy of learning or inference of the learning model used for the inference is evaluated. Then, the evaluation unit 38 evaluates the feature extraction unit 36 used when generating the learning model based on the accuracy of learning or inference of the learning model. The evaluation unit 38 performs such processing on each learning model stored in the learning model storage unit 130. The evaluation result by the evaluation unit 38 may be displayed and output on the display device 70, or may be transmitted and output to a host computer, a cloud computer or the like via the network 5 for use. The evaluation unit 38 may perform display output or the like only for the feature extraction unit 36 used for generating the learning model with the highest learning or inference accuracy.

図7は、図3,5の例で示した特徴抽出部に基づいて作成された学習データ及び評価データに基づく評価部38による評価の例を示す図である。図7に例示されるように、特徴抽出部A1を用いて作成された学習データa1に基づいて、学習部110で学習モデルa1が生成されたとする。この時、推定部120は、特徴抽出部A1を用いて作成された評価データa1に基づいて学習モデルa1を用いた推定処理を行い、推定結果a1を出力する。そして、評価部38は、推定結果a1対して公知の統計的処理乃至公知の機械学習の評価指標を適用し、学習モデルa1の制度の評価を行う、その結果を特徴抽出部A1の評価として出力する。同様に、評価部38は、推定結果a2,a3から、それぞれ学習モデルa2,a3の評価を行う、その結果をそれぞれ特徴抽出部A2,A3の評価として出力する。 FIG. 7 is a diagram showing an example of evaluation by the evaluation unit 38 based on the learning data and the evaluation data created based on the feature extraction unit shown in the examples of FIGS. As illustrated in FIG. 7, it is assumed that the learning model a1 is generated by the learning unit 110 based on the learning data a1 created using the feature extraction unit A1. At this time, the estimation unit 120 performs the estimation process using the learning model a1 based on the evaluation data a1 created using the feature extraction unit A1 and outputs the estimation result a1. Then, the evaluation unit 38 applies a known statistical process or a known machine learning evaluation index to the estimation result a1 to evaluate the accuracy of the learning model a1, and outputs the result as the evaluation of the feature extraction unit A1. To do. Similarly, the evaluation unit 38 evaluates the learning models a2 and a3 from the estimation results a2 and a3, and outputs the results as the evaluations of the feature extraction units A2 and A3, respectively.

上記した実施形態による検出装置1は、検出を行うために取得したデータに対して、複数の特徴抽出部36によりそれぞれデータの特徴を抽出した学習データ及び評価データを作成し、作成したそれぞれの学習データ及び評価データによる学習及び推定を行うことで得られた推定結果から、各々の特徴抽出部36の評価を行う。評価部38が出力する評価結果は、検出を行うために取得したデータに対する、それぞれの特徴抽出部36の適性を示すものとなり、これを把握した作業者は、検出処理に用いるべき特徴抽出部36乃至特徴抽出部36の組(即ち、前処理に利用するパラメータ乃至アルゴリズム、その組)を容易に決定することができるように成る。また、特徴抽出部36を新たに追加した場合にも、既存の特徴抽出部36に対して学習・推定の精度向上を容易に検証することができるようになる。 The detection device 1 according to the above-described embodiment creates learning data and evaluation data in which the features of the data are extracted by the plurality of feature extraction units 36 with respect to the data acquired for performing the detection, and the created learning data is obtained. Each feature extraction unit 36 is evaluated from the estimation result obtained by performing learning and estimation based on the data and the evaluation data. The evaluation result output by the evaluation unit 38 indicates the suitability of each feature extraction unit 36 with respect to the data acquired to perform the detection, and the operator who has grasped this shows the feature extraction unit 36 to be used for the detection process. It is possible to easily determine the set of the feature extraction unit 36 (that is, the parameter or algorithm used for the preprocessing, the set thereof). Further, even when the feature extraction unit 36 is newly added, it is possible to easily verify the improvement in learning/estimation accuracy with respect to the existing feature extraction unit 36.

上記した実施形態の一変形例として、評価部38は、各々の特徴抽出部36に対する評価結果に基づいて、パラメータを調整した特徴抽出部36を新たに前処理部34に追加して、再度、データセット生成部32,前処理部34,学習部110、推定部120に対して、追加した特徴抽出部36を用いた処理を実行させて、該特徴抽出部36に対する評価を行うようにしても良い。評価部38は、各々の特徴抽出部36に対して評価を行った場合に、いずれの特徴抽出部36を用いても、予め設定されている所定の閾値を超える学習乃至推論の精度を示す学習モデルが得られなかった場合に、それぞれの特徴抽出部36に設定されるパラメータ値の変化傾向と、該特徴抽出部36を用いて生成された学習モデルの学習乃至推論の精度の変化傾向とを比較し、学習モデルの学習精度が上昇すると予想されるパラメータ値を設定した特徴抽出部36を新たに追加し、追加した特徴抽出部36を用いた処理を行うように各機能手段に対して指令する。 As a modification of the above-described embodiment, the evaluation unit 38 newly adds the feature extraction unit 36 whose parameters are adjusted to the preprocessing unit 34 based on the evaluation result of each feature extraction unit 36, and again, Even if the data set generation unit 32, the preprocessing unit 34, the learning unit 110, and the estimation unit 120 are caused to execute the processing using the added feature extraction unit 36, the feature extraction unit 36 may be evaluated. good. When the evaluation unit 38 evaluates each of the feature extraction units 36, no matter which of the feature extraction units 36 is used, the learning that exceeds the predetermined threshold value set in advance or the learning that indicates the accuracy of inference is performed. When a model is not obtained, the change tendency of the parameter value set in each feature extraction unit 36 and the change tendency of the learning or inference accuracy of the learning model generated using the feature extraction unit 36 are described. By comparison, a feature extraction unit 36 in which a parameter value that is expected to increase the learning accuracy of the learning model is set is newly added, and each functional unit is instructed to perform processing using the added feature extraction unit 36. To do.

上記動作を評価部38に行わせることで、予め用意しておいた特徴抽出部36の中に、検出を行うために取得したデータに対して適性を持った特徴抽出部36がなかった場合であっても、評価部38によりパラメータ値が調整された特徴抽出部36が自動的に追加されて再評価が行われるため、半自動的に適性のある特徴抽出部36の探索が行われるようになる。 By causing the evaluation unit 38 to perform the above operation, when the feature extraction unit 36 prepared in advance does not have the feature extraction unit 36 suitable for the data acquired for the detection. Even if there is, the feature extraction unit 36 whose parameter value is adjusted by the evaluation unit 38 is automatically added and re-evaluated, so that a suitable feature extraction unit 36 is searched semi-automatically. ..

以上、本発明の実施の形態について説明したが、本発明は上述した実施の形態の例のみに限定されることなく、適宜の変更を加えることにより様々な態様で実施することができる。
例えば、上記した第2,3実施形態では検出装置1と機械学習装置100が異なるCPU(プロセッサ)を有する装置として説明しているが、機械学習装置100は検出装置1が備えるCPU11と、ROM12に記憶されるシステム・プログラムにより実現するようにしても良い。
Although the embodiments of the present invention have been described above, the present invention is not limited to the examples of the above-described embodiments and can be implemented in various modes by making appropriate changes.
For example, although the detection device 1 and the machine learning device 100 are described as devices having different CPUs (processors) in the above-described second and third embodiments, the machine learning device 100 includes the CPU 11 and the ROM 12 included in the detection device 1. It may be realized by a stored system program.

また、上記した第2,3実施形態では学習のための構成と推定のための構成とを別の実施形態として説明しているが、これらを同時に備えた検出装置1を構成しても良い。この場合、検出装置1は、工具の取り付け状態の推定を行いながら、必要に応じて学習モデルを更新する(学習する)ように動作する。 Further, although the configuration for learning and the configuration for estimation are described as different embodiments in the second and third embodiments described above, the detection device 1 may be configured to include them at the same time. In this case, the detection device 1 operates so as to update (learn) the learning model as necessary while estimating the attachment state of the tool.

1 検出装置
2 産業機械
5 ネットワーク
11 CPU
12 ROM
13 RAM
14 不揮発性メモリ
16,17,18 インタフェース
20 バス
21 インタフェース
30 データ取得部
32 データセット生成部
34 前処理部
36 特徴抽出部
38 評価部
50 取得データ記憶部
70 表示装置
71 入力装置
100 機械学習装置
101 プロセッサ
102 ROM
103 RAM
104 不揮発性メモリ
110 学習部
120 推定部
130 学習モデル記憶部
1 Detection Device 2 Industrial Machine 5 Network 11 CPU
12 ROM
13 RAM
14 non-volatile memory 16, 17, 18 interface 20 bus 21 interface 30 data acquisition unit 32 data set generation unit 34 preprocessing unit 36 feature extraction unit 38 evaluation unit 50 acquired data storage unit 70 display device 71 input device 100 machine learning device 101 Processor 102 ROM
103 RAM
104 non-volatile memory 110 learning unit 120 estimation unit 130 learning model storage unit

Claims (5)

産業機械に係るデータに基づく検出処理を行う検出装置であって、
前記産業機械に係るデータから該データの特徴に係るデータを抽出する複数の特徴抽出部を備え、それぞれの特徴抽出部を用いて前記産業機械に係るデータから学習データ及び評価データの組をそれぞれ作成する前処理部と、
それぞれの前記学習データに基づいた機械学習を行い、複数の学習モデルをそれぞれ生成する学習部と、
前記評価データに基づいて、該評価データに対応する学習データを用いて生成された学習モデルを用いた推定を行う推定部と、
前記推定部による推定結果に基づいて、前記学習モデルの学習・推定の精度に関する評価を行い、その評価結果に基づいて、対応する前記特徴抽出部の評価結果を出力する評価部と、
を備えた検出装置。
A detection device that performs a detection process based on data related to an industrial machine,
A plurality of feature extraction units that extract data relating to the features of the data from the data relating to the industrial machine are provided, and respective sets of learning data and evaluation data are created from the data relating to the industrial machine using the respective feature extraction units. A pre-processing unit,
A learning unit that performs machine learning based on each of the learning data to generate a plurality of learning models,
An estimation unit that performs estimation based on the evaluation data using a learning model generated using learning data corresponding to the evaluation data;
Based on the estimation result by the estimation unit, to evaluate the accuracy of learning and estimation of the learning model, based on the evaluation result, an evaluation unit that outputs the evaluation result of the corresponding feature extraction unit,
A detection device equipped with.
前記産業機械に係るデータは、画像データ、時系列データ、文字データの少なくともいずれかである、
請求項1に記載の検出装置。
The data related to the industrial machine is at least one of image data, time series data, and character data,
The detection device according to claim 1.
前記機械学習は、教師なし学習または教師あり学習のいずれかである、
請求項1に記載の検出装置。
The machine learning is either unsupervised learning or supervised learning,
The detection device according to claim 1.
前記評価部は、学習・推定の精度が最も高い学習モデルに対応する前記特徴抽出部の評価結果を出力する、
請求項1に記載の検出装置。
The evaluation unit outputs an evaluation result of the feature extraction unit corresponding to a learning model with the highest learning/estimation accuracy,
The detection device according to claim 1.
産業機械に係るデータに基づく検出処理に係る機械学習方法であって、
前記産業機械に係るデータから該データの特徴に係るデータを抽出する複数の特徴抽出手段をそれぞれ用いて前記産業機械に係るデータから学習データ及び評価データの組をそれぞれ作成する前処理ステップと、
それぞれの前記学習データに基づいた機械学習を行い、複数の学習モデルをそれぞれ生成する学習ステップと、
前記評価データに基づいて、該評価データに対応する学習データを用いて生成された学習モデルを用いた推定を行う推定ステップと、
前記推定ステップによる推定結果に基づいて、前記学習モデルの学習・推定の精度に関する評価を行い、その評価結果に基づいて、対応する前記特徴抽出手段の評価結果を出力する評価ステップと、
を備えた機械学習方法。
A machine learning method for detection processing based on data of an industrial machine,
A preprocessing step of respectively creating a set of learning data and evaluation data from the data relating to the industrial machine by respectively using a plurality of feature extracting means for extracting data relating to the feature of the data from the data relating to the industrial machine,
A learning step of performing machine learning based on each of the learning data and generating a plurality of learning models,
An estimation step of performing estimation using a learning model generated using learning data corresponding to the evaluation data based on the evaluation data;
Based on the estimation result by the estimation step, evaluate the accuracy of learning and estimation of the learning model, based on the evaluation result, an evaluation step of outputting the evaluation result of the corresponding feature extraction means,
A machine learning method with.
JP2018218549A 2018-11-21 2018-11-21 Detection device and machine learning method Active JP7251955B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018218549A JP7251955B2 (en) 2018-11-21 2018-11-21 Detection device and machine learning method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018218549A JP7251955B2 (en) 2018-11-21 2018-11-21 Detection device and machine learning method

Publications (2)

Publication Number Publication Date
JP2020086786A true JP2020086786A (en) 2020-06-04
JP7251955B2 JP7251955B2 (en) 2023-04-04

Family

ID=70908164

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018218549A Active JP7251955B2 (en) 2018-11-21 2018-11-21 Detection device and machine learning method

Country Status (1)

Country Link
JP (1) JP7251955B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114766706A (en) * 2022-05-09 2022-07-22 北京天地数联科技有限公司 Tobacco leaf impurity removal and grading method
CN115219067A (en) * 2022-09-20 2022-10-21 金乡县成启仓储服务有限公司 Real-time state monitoring method for garlic storage

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004038744A (en) * 2002-07-05 2004-02-05 Nippon Telegr & Teleph Corp <Ntt> Image recognition algorithm generation method, image recognition algorithm generation device, image recognition algorithm generation program, and recording medium recorded with image recognition algorithm generation program
JP2011065545A (en) * 2009-09-18 2011-03-31 Panasonic Electric Works Co Ltd Device and method for signal identification
US20120330971A1 (en) * 2011-06-26 2012-12-27 Itemize Llc Itemized receipt extraction using machine learning
JP2016200971A (en) * 2015-04-09 2016-12-01 キヤノン株式会社 Learning apparatus, identification apparatus, learning method, identification method and program
JP2017004509A (en) * 2015-06-04 2017-01-05 ザ・ボーイング・カンパニーThe Boeing Company Advanced analytical infrastructure for machine learning
JP2018027577A (en) * 2016-08-15 2018-02-22 富士通株式会社 Determination device, determination method and determination program
CN113269174A (en) * 2021-07-21 2021-08-17 北京航空航天大学 Electrical actuator fault diagnosis test method based on extended convolution countermeasure self-encoder

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004038744A (en) * 2002-07-05 2004-02-05 Nippon Telegr & Teleph Corp <Ntt> Image recognition algorithm generation method, image recognition algorithm generation device, image recognition algorithm generation program, and recording medium recorded with image recognition algorithm generation program
JP2011065545A (en) * 2009-09-18 2011-03-31 Panasonic Electric Works Co Ltd Device and method for signal identification
US20120330971A1 (en) * 2011-06-26 2012-12-27 Itemize Llc Itemized receipt extraction using machine learning
JP2016200971A (en) * 2015-04-09 2016-12-01 キヤノン株式会社 Learning apparatus, identification apparatus, learning method, identification method and program
JP2017004509A (en) * 2015-06-04 2017-01-05 ザ・ボーイング・カンパニーThe Boeing Company Advanced analytical infrastructure for machine learning
JP2018027577A (en) * 2016-08-15 2018-02-22 富士通株式会社 Determination device, determination method and determination program
CN113269174A (en) * 2021-07-21 2021-08-17 北京航空航天大学 Electrical actuator fault diagnosis test method based on extended convolution countermeasure self-encoder

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114766706A (en) * 2022-05-09 2022-07-22 北京天地数联科技有限公司 Tobacco leaf impurity removal and grading method
CN114766706B (en) * 2022-05-09 2023-09-12 北京天地数联科技有限公司 Tobacco impurity removing and grading method
CN115219067A (en) * 2022-09-20 2022-10-21 金乡县成启仓储服务有限公司 Real-time state monitoring method for garlic storage
CN115219067B (en) * 2022-09-20 2023-01-03 金乡县成启仓储服务有限公司 Real-time state monitoring method for garlic storage

Also Published As

Publication number Publication date
JP7251955B2 (en) 2023-04-04

Similar Documents

Publication Publication Date Title
CN110825644B (en) Cross-project software defect prediction method and system
JP6523379B2 (en) Information processing device
JP6740247B2 (en) Anomaly detection system, anomaly detection method, anomaly detection program and learned model generation method
JP7149197B2 (en) ABNORMAL SOUND DETECTION DEVICE AND ABNORMAL SOUND DETECTION METHOD
CN111459700B (en) Equipment fault diagnosis method, diagnosis device, diagnosis equipment and storage medium
JP6693938B2 (en) Appearance inspection device
JP6585654B2 (en) Determination apparatus, analysis system, determination method, and determination program
JP6828807B2 (en) Data analysis device, data analysis method and data analysis program
CN111177655B (en) Data processing method and device and electronic equipment
WO2024065777A1 (en) Method, apparatus, electronic device, and storage medium for diagnosing industrial fault
WO2019026134A1 (en) Information processing device and information processing method
CN113570007B (en) Method, device and equipment for optimizing construction of part defect identification model and storage medium
US20200394092A1 (en) Diagnostic apparatus
US20220366244A1 (en) Modeling Human Behavior in Work Environment Using Neural Networks
JP2020024139A (en) Product inspection device
JP2019105871A (en) Abnormality candidate extraction program, abnormality candidate extraction method and abnormality candidate extraction apparatus
JP7251955B2 (en) Detection device and machine learning method
CN118051822A (en) Equipment running state abnormality detection method based on voiceprint recognition technology
US20200082281A1 (en) Verification device
CN116128882B (en) Motor bearing fault diagnosis method, equipment and medium based on unbalanced data set
JP2021076998A (en) Analyzer
CN117574246A (en) Intelligent fault diagnosis method, device, equipment and storage medium
CN115659271A (en) Sensor abnormality detection method, model training method, system, device, and medium
JP7136329B2 (en) Abnormality detection device, control method, and program
US20220358352A1 (en) Data analysis system, data analysis method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210908

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220729

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220830

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221026

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230221

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230323

R150 Certificate of patent or registration of utility model

Ref document number: 7251955

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150