JP7294768B2 - Image processing system - Google Patents

Image processing system Download PDF

Info

Publication number
JP7294768B2
JP7294768B2 JP2017151291A JP2017151291A JP7294768B2 JP 7294768 B2 JP7294768 B2 JP 7294768B2 JP 2017151291 A JP2017151291 A JP 2017151291A JP 2017151291 A JP2017151291 A JP 2017151291A JP 7294768 B2 JP7294768 B2 JP 7294768B2
Authority
JP
Japan
Prior art keywords
neural network
cnn
image processing
processing system
low
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017151291A
Other languages
Japanese (ja)
Other versions
JP2019028960A (en
Inventor
ジェウック ホワン
紫朗 藤枝
泰之 池田
和志 吉岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to JP2017151291A priority Critical patent/JP7294768B2/en
Priority to US15/893,682 priority patent/US10885620B2/en
Priority to DE102018103244.7A priority patent/DE102018103244B4/en
Priority to CN201810153471.4A priority patent/CN109387521B/en
Publication of JP2019028960A publication Critical patent/JP2019028960A/en
Application granted granted Critical
Publication of JP7294768B2 publication Critical patent/JP7294768B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/809Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • G01N2021/8887Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges based on image processing techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/06Recognition of objects for industrial automation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Quality & Reliability (AREA)
  • Probability & Statistics with Applications (AREA)
  • Analytical Chemistry (AREA)
  • Chemical & Material Sciences (AREA)
  • Signal Processing (AREA)
  • Biochemistry (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Image Analysis (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Image Processing (AREA)

Description

この発明は、画像処理システムに関し、特に、ニューラルネットワークを用いた画像処理システムに関する。 The present invention relates to an image processing system, and more particularly to an image processing system using a neural network.

FA(Factory Automation)分野では、画像計測処理を用いた自動制御が広く実用化されている。例えば、ワークなどの被検査対象を撮像し、その撮像された画像から欠陥などの特徴量を算出することで、当該ワークについての良否を検査するような検査工程が実現される。 In the FA (Factory Automation) field, automatic control using image measurement processing is widely put into practical use. For example, by taking an image of an object to be inspected such as a work and calculating feature amounts such as defects from the taken image, an inspection process for inspecting the quality of the work is realized.

このような画像計測処理の一例として、畳み込みニューラルネットワーク(以下、単に「CNN」とも称す。)が注目されている。例えば、非特許文献1に示すように、CNNは、畳み込み層とプーリング層とが交互に配置された多層化された構造を有するネットワークである。 As an example of such image measurement processing, a convolutional neural network (hereinafter also simply referred to as “CNN”) is attracting attention. For example, as shown in Non-Patent Document 1, a CNN is a network having a multi-layered structure in which convolution layers and pooling layers are alternately arranged.

"ImageNet Classification with Deep Convolutional Neural Networks", A. Krizhevsky, I. Sutskever, and G. E. Hinton, In Advances in Neural Information Processing Systems, 2012"ImageNet Classification with Deep Convolutional Neural Networks", A. Krizhevsky, I. Sutskever, and G. E. Hinton, In Advances in Neural Information Processing Systems, 2012

上述の非特許文献1に開示される手法のように、CNNを用いて画像解析などを実行する場合には、複数の学習画像を用いた学習によりCNNを構築し、その構築されたCNNが画像解析に用いられる。 As in the method disclosed in Non-Patent Document 1 above, when performing image analysis using a CNN, a CNN is constructed by learning using a plurality of learning images, and the constructed CNN is an image Used for analysis.

一方、CNNを用いた画像処理装置は、計測対象が学習した対象物以外の場合、CNNネットワークモデルのパラメータが最適化されていない。この場合、当該画像処理装置は、学習のために演算性能が必要であり、低機能装置では行なえない。また、当該画像処理装置に演算量の多いネットワークモデルを構築すると、低機能装置では演算性能が不足する。この場合、当該画像処理装置は、一定の時間内に判定を終わらせることができず、リアルタイムで対象物を検査することができない。 On the other hand, in an image processing apparatus using CNN, the parameters of the CNN network model are not optimized unless the object to be measured is a learned object. In this case, the image processing device requires computational performance for learning, which cannot be performed by a low-function device. Further, if a network model with a large amount of calculation is constructed in the image processing device, the calculation performance of the low-function device will be insufficient. In this case, the image processing apparatus cannot complete the determination within a certain period of time and cannot inspect the object in real time.

この発明の目的は、低機能装置を現場に配置した場合にも判定の確度を高めることが可能な画像処理システムを提供することである。 SUMMARY OF THE INVENTION It is an object of the present invention to provide an image processing system capable of increasing the accuracy of determination even when a low-function device is placed on site.

本開示のある局面によれば、1または複数の第1の装置と、第1の装置より演算能力の高い第2の装置とを用いて少なくとも1つの対象物を判定する画像処理システムであって、第1の装置は、対象物の撮像画像に第1のニューラルネットワークを適用して対象物を識別する第1の判定結果を出力する手段と、第1の判定結果が所定条件に合致すれば、撮像画像を第2の装置に出力する手段とを含み、第2の装置は、第1のニューラルネットワークと少なくとも一部が共通のサンプルで事前学習された第2のニューラルネットワークを撮像画像に適用して、対象物を識別する第2の判定結果を出力する手段を含み、第1のニューラルネットワークおよび第2のニューラルネットワークは、中間層があり、少なくとも一部が共通の部分を有するネットワーク構造を有する。 According to one aspect of the present disclosure, an image processing system for determining at least one object using one or more first devices and a second device having greater computing power than the first devices, comprising: , a first device includes means for applying a first neural network to a captured image of an object and outputting a first determination result for identifying the object; and means for outputting the captured image to a second device, the second device applying to the captured image a second neural network that has been pre-trained on samples that are at least partially common with the first neural network. and outputting a second determination result identifying the object, the first neural network and the second neural network having a network structure having an intermediate layer and at least a portion having a common portion have.

本開示の他の局面によれば、1または複数の第1の装置と、第1の装置より演算能力の高い第2の装置とを用いて少なくとも1つの対象物を判定する画像処理システムであって、第1の装置は、対象物の撮像画像に第1のニューラルネットワークを適用して対象物を識別する第1の判定結果を出力する手段と、第1の判定結果が所定条件に合致すれば、第1のニューラルネットワークの中間段階のデータ信号を第2の装置に出力する手段とを含み、第2の装置は、第1のニューラルネットワークと少なくとも一部が共通する第2のニューラルネットワークを用いて対象物を識別する第2の判定結果を出力する手段を含み、第1のニューラルネットワークおよび第2のニューラルネットワークは、中間層があり、少なくとも一部が共通の部分を有するネットワーク構造を有し、第2の判定結果を出力する手段は、第1のニューラルネットワークの中間段階に対応する第2のニューラルネットワークの層からデータ信号を適用する。 According to another aspect of the present disclosure, an image processing system for determining at least one object using one or more first devices and a second device having greater computing power than the first devices. The first device includes means for applying a first neural network to the captured image of the object and outputting a first determination result for identifying the object; means for outputting an intermediate stage data signal of the first neural network to a second device, the second device having a second neural network having at least a portion in common with the first neural network; The first neural network and the second neural network have an intermediate layer and have a network structure at least partially having a common portion. and means for outputting a second determination result apply data signals from layers of a second neural network corresponding to intermediate stages of the first neural network.

好ましくは、第1の装置は、第2の判定結果を受けて、対象物をリアルタイムで判定する。 Preferably, the first device receives the second determination result and determines the object in real time.

好ましくは、第1の装置は、第1の判定結果が所定の確度未満の撮像画像を第2の装置に出力する手段を含み、第2の装置は、所定の確度未満の撮像画像に基づいて、第2のニューラルネットワークを再学習する手段を含む。 Preferably, the first device includes means for outputting a captured image in which the first determination result is less than a predetermined accuracy to the second device, and the second device outputs the captured image in which the accuracy is less than the predetermined accuracy , means for retraining the second neural network.

好ましくは、再学習する手段は、オフライン時に第2のニューラルネットワークを再学習する。 Preferably, the re-learning means re-learns the second neural network offline.

好ましくは、第2の装置は、再学習された第2のニューラルネットワークのうち、第1のニューラルネットワークと共通する部分に基づいて、第1のニューラルネットワークのモデルを作成する手段と、第1のニューラルネットワークのモデルうち、第1のニューラルネットワークに特有の部分を再学習する手段とを含む。 Preferably, the second device includes means for creating a model of the first neural network based on a portion of the retrained second neural network that is common to the first neural network; and means for retraining portions of the neural network model specific to the first neural network.

好ましくは、対象物ごとに判定結果を管理する管理装置をさらに備え、第1の装置は、第1の判定結果を管理装置に出力する手段と、第1の判定結果が所定の確度未満の撮像画像を第2の装置に出力する手段とを含み、第2の装置は、第2の判定結果を管理装置に出力する手段を含み、管理装置は、対象物ごとに、第1の判定結果および第2の判定結果の少なくとも一方を対象物と関連付ける。 Preferably, the apparatus further comprises a management device for managing determination results for each object, wherein the first device includes means for outputting the first determination result to the management device, and the first determination result is less than a predetermined accuracy. and means for outputting the image to a second device, the second device including means for outputting the second determination result to the management device, and the management device outputs the first determination result and At least one of the second determination results is associated with the object.

好ましくは、第1のニューラルネットワークおよび第2のニューラルネットワークは、畳み込みニューラルネットワークである。 Preferably, the first neural network and the second neural network are convolutional neural networks.

この発明によれば、低機能装置を現場に配置した場合であっても判定の確度を高めることが可能となる。 According to the present invention, it is possible to improve the accuracy of determination even when a low-function device is placed at the site.

この発明の実施の形態1による画像処理システム100Aを示した模式図である。1 is a schematic diagram showing an image processing system 100A according to Embodiment 1 of the present invention; FIG. この発明の実施の形態1による低機能装置10の構成の一例を示した機能ブロック図である。1 is a functional block diagram showing an example of a configuration of a low function device 10 according to Embodiment 1 of the present invention; FIG. この発明の実施の形態1による高機能装置20の構成の一例を示した機能ブロック図である。1 is a functional block diagram showing an example of the configuration of a highly functional device 20 according to Embodiment 1 of the present invention; FIG. この発明の実施の形態2による画像処理システム100Bを示した模式図である。FIG. 5 is a schematic diagram showing an image processing system 100B according to Embodiment 2 of the present invention; この発明の実施の形態3による画像処理システム100Cの判断の流れの一例を示した模式図である。FIG. 10 is a schematic diagram showing an example of the flow of determination of an image processing system 100C according to Embodiment 3 of the present invention; 図5の判断の流れに対応する画像処理システム100CのCNNモデルの一例を示した模式図である。FIG. 6 is a schematic diagram showing an example of a CNN model of the image processing system 100C corresponding to the flow of judgment in FIG. 5; 図5の判断の流れに対応する画像処理システム100CのCNNモデルの他の一例を示した模式図である。6 is a schematic diagram showing another example of the CNN model of the image processing system 100C corresponding to the flow of judgment in FIG. 5; FIG. この発明の実施の形態4による画像処理システム100Dの判断の流れの一例を示した模式図である。FIG. 11 is a schematic diagram showing an example of the flow of determination of an image processing system 100D according to Embodiment 4 of the present invention; 図8の判断の流れに対応する画像処理システム100DのCNNモデルの一例を示した模式図である。FIG. 9 is a schematic diagram showing an example of a CNN model of the image processing system 100D corresponding to the flow of judgment in FIG. 8; この発明の実施の形態5による画像処理システム200を示した模式図である。FIG. 5 is a schematic diagram showing an image processing system 200 according to Embodiment 5 of the present invention; この発明の実施の形態5による画像処理システム200の判断の流れの一例を示した模式図である。FIG. 12 is a schematic diagram showing an example of the flow of judgment of the image processing system 200 according to Embodiment 5 of the present invention; この発明の実施の形態5による画像処理システム200の判断の流れの一例を示したフロー図である。FIG. 11 is a flow chart showing an example of the flow of judgment of the image processing system 200 according to Embodiment 5 of the present invention; この発明の実施の形態5による画像処理システム200のワークの識別度に対するデータの配分を示した図である。FIG. 10 is a diagram showing distribution of data with respect to work discrimination in the image processing system 200 according to Embodiment 5 of the present invention;

この発明の実施の形態について、図面を参照しながら詳細に説明する。なお、図中の同一または相当部分については、同一符号を付してその説明は繰り返さない。 Embodiments of the present invention will be described in detail with reference to the drawings. The same or corresponding parts in the drawings are given the same reference numerals, and the description thereof will not be repeated.

以下では、ニューラルネットワークの一例として、畳み込みニューラルネットワーク(CNN)を例に説明する。しかし、画像処理に用いられるネットワーク構造は、CNN以外にも、たとえば、ディープビリーフネットワーク(DBN)や、積層デノイジングオートエンコーダ(SDA)が存在する。 A convolutional neural network (CNN) will be described below as an example of a neural network. However, network structures used for image processing include, for example, deep belief networks (DBN) and layered denoising autoencoders (SDA) in addition to CNN.

本発明では、中間層があり、少なくとも一部が共通の部分を持つネットワーク構造を対象としている。具体的には、CNNだけでなく、中間層を持つニューラルネットワーク、またはディープニューラルネットワークも本願発明の対象に含まれる。 The present invention is directed to a network structure with intermediate layers, at least some of which are in common. Specifically, not only CNNs but also neural networks with intermediate layers or deep neural networks are included in the scope of the present invention.

[実施の形態1]
図1は、この発明の実施の形態1による画像処理システム100Aを示した模式図である。
[Embodiment 1]
FIG. 1 is a schematic diagram showing an image processing system 100A according to Embodiment 1 of the present invention.

図1を参照して、画像処理システム100Aは、低機能装置10と、高機能装置20とを含む。低機能装置とは、たとえば、FA現場において入力および判定を行なうセンサコントローラを含む、演算能力が比較的低い装置を指す。高機能装置とは、たとえば、低機能装置より演算能力が高いPC(Personal Computer)またはワークステーション、あるいはクラウドなどにつながっているサーバーを含む、演算能力が比較的高い装置を指す。低機能装置10は、撮像装置11を含む。高機能装置20は、マルチコアプロセッサ21と、ストレージ22と、高CNN演算部23とを含む。 Referring to FIG. 1, image processing system 100A includes low-function device 10 and high-function device 20 . A low-function device refers to, for example, a device with relatively low computing power, including a sensor controller that performs input and determination in the FA field. High-performance devices refer to devices with relatively high computing power, including, for example, PCs (Personal Computers) or workstations with higher computing power than low-performance devices, or servers connected to the cloud or the like. The low function device 10 includes an imaging device 11 . The highly functional device 20 includes a multi-core processor 21 , a storage 22 and a high CNN computing section 23 .

撮像装置11は、判定時間Tjの間隔で流れてくるワーク1,2,3,・・・,n(以下、ワークnとも総称する)を順次撮像する。低機能装置10は、撮像装置11の撮像結果に基づいて、画像信号GrまたはCNNの中間段階のデータ信号Diを生成し、これを高機能装置20に送信する。画像信号Grは、ワークnの識別度が所定値(たとえば50%)未満であって識別が曖昧なグレー判定を示す場合がある。画像処理システム100Aは、当該識別度に応じてワークnの傷の有無等を判断する。 The imaging device 11 sequentially images works 1, 2, 3, . The low function device 10 generates an intermediate stage data signal Di of the image signal Gr or the CNN based on the imaging result of the imaging device 11 and transmits this to the high function device 20 . In some cases, the image signal Gr indicates gray determination that the identification of the work n is less than a predetermined value (for example, 50%) and the identification is ambiguous. The image processing system 100A determines whether or not there is a scratch on the workpiece n according to the degree of identification.

高機能装置20は、画像信号Grおよびデータ信号Diを受けて、高CNN演算部23において画像信号Grまたはデータ信号DiのCNN演算を行なう。高機能装置20は、高CNN演算部23での演算結果に基づいて、ワークnの判定結果を示す判定信号Jdを生成し、これを低機能装置10に送信する。高機能装置20は、CNNの再学習時には、再学習済みのモデルデータ信号Dmを低機能装置10に送信する。 Highly functional device 20 receives image signal Gr and data signal Di, and performs CNN operation of image signal Gr or data signal Di in high CNN operation unit 23 . The highly functional device 20 generates a determination signal Jd indicating the determination result of the workpiece n based on the computation result of the high CNN computing section 23 and transmits it to the low functional device 10 . The high-function device 20 transmits the re-learned model data signal Dm to the low-function device 10 when re-learning the CNN.

図2は、この発明の実施の形態1による低機能装置10の構成の一例を示した機能ブロック図である。 FIG. 2 is a functional block diagram showing an example of the configuration of the low function device 10 according to Embodiment 1 of the present invention.

図2を参照して、低機能装置10は、撮像装置11と、カメラI/F(Interface)12と、ストレージ13と、CPU(Central Processing Unit)14と、RAM(Random Access Memory)15と、通信I/F16とを含む。 Referring to FIG. 2, low-function device 10 includes imaging device 11, camera I/F (Interface) 12, storage 13, CPU (Central Processing Unit) 14, RAM (Random Access Memory) 15, Communication I/F 16 is included.

撮像装置11は、ワークnを撮像して、その撮像結果をカメラI/F12に送信する。カメラI/F12は、撮像結果をストレージ13、CPU14、RAM15および通信I/F16に送信する。ストレージ13は、撮像装置11での撮像結果、CPU14で用いられる演算プログラム、CPU14での演算結果などを長期的に記憶する。CPU14は、撮像装置11での撮像結果を低CNNによって演算する。RAM15は、CPU14での演算の途中結果などを短期的に記憶する。通信I/F16は、CPU14で演算された画像信号またはCNNの中間段階のデータ信号を高機能装置20に出力するとともに、高機能装置20からの信号を受ける。 The imaging device 11 images the workpiece n and transmits the imaging result to the camera I/F 12 . Camera I/F 12 transmits the imaging result to storage 13 , CPU 14 , RAM 15 and communication I/F 16 . The storage 13 stores the imaging result of the imaging device 11, the calculation program used by the CPU 14, the calculation result of the CPU 14, and the like for a long period of time. The CPU 14 calculates the result of imaging by the imaging device 11 using the low CNN. The RAM 15 stores intermediate results of calculations by the CPU 14 for a short period of time. The communication I/F 16 outputs the image signal calculated by the CPU 14 or the intermediate stage data signal of the CNN to the high function device 20 and receives a signal from the high function device 20 .

図3は、この発明の実施の形態1による高機能装置20の構成の一例を示した機能ブロック図である。 FIG. 3 is a functional block diagram showing an example of the configuration of the highly functional device 20 according to Embodiment 1 of the present invention.

図3を参照して、高機能装置20は、マルチコアプロセッサ21と、ストレージ22と、高CNN演算部23と、RAM24と、通信I/F25とを含む。高CNN演算部23は、精密な判定ができるCNNの学習済みのネットワークモデルを備える。 With reference to FIG. 3 , highly functional device 20 includes multi-core processor 21 , storage 22 , high CNN computing section 23 , RAM 24 and communication I/F 25 . The high CNN calculation unit 23 has a trained network model of CNN capable of making precise judgments.

マルチコアプロセッサ21は、通信I/F25を介して低機能装置10から送信される画像信号またはデータ信号のCNN演算等を行なう。ストレージ22は、低機能装置10から送信される画像信号およびデータ信号、マルチコアプロセッサ21で用いられる演算プログラム、マルチコアプロセッサ21での演算結果などを長期的に記憶する。 The multi-core processor 21 performs CNN calculations and the like on image signals or data signals transmitted from the low function device 10 via the communication I/F 25 . The storage 22 stores image signals and data signals transmitted from the low-function device 10, arithmetic programs used by the multi-core processor 21, arithmetic results of the multi-core processor 21, and the like for a long period of time.

高CNN演算部23は、低機能装置10から送信される画像信号またはデータ信号を高CNNで演算する。また、高CNN演算部23は、オフラインで、蓄積されたグレー判定の画像信号を用いて再学習を行なう。また、高CNN演算部23は、低機能装置10側で構築されたモデルに対しても再学習を行ない、当該再学習されたモデルを低機能装置10に送信してCNNを更新する。 The high CNN computation unit 23 computes the image signal or data signal transmitted from the low function device 10 with high CNN. Further, the high CNN calculator 23 performs re-learning off-line using the accumulated image signals for gray determination. The high CNN calculation unit 23 also re-learns the model built on the low-function device 10 side, and transmits the re-learned model to the low-function device 10 to update the CNN.

RAM24は、マルチコアプロセッサ21での演算の途中結果などを短期的に記憶する。通信I/F25は、ワークnの判定結果を示す判定信号および再学習済みのモデルデータ信号を低機能装置10に出力するとともに、低機能装置10からの信号を受ける。 The RAM 24 stores interim results of calculations in the multi-core processor 21 for a short period of time. Communication I/F 25 outputs a determination signal indicating the determination result of workpiece n and a re-learned model data signal to low-function device 10 and receives a signal from low-function device 10 .

以上のように、実施の形態1によれば、高機能装置側に精密な判定ができるCNNの学習済みのネットワークモデルを置くことにより、CNNを用いた検査において低機能装置で判定が難しいワークであっても高機能装置を介して判定することができる。また、高機能装置が低機能装置からCNNの中間段階のデータ信号を受けて識別し判定することにより、リアルタイムで検査を行なうことができる。 As described above, according to Embodiment 1, by placing a trained network model of a CNN capable of making precise judgments on the high-performance device side, a workpiece that is difficult to judge with a low-performance device in an inspection using a CNN can be used. Even if there is, it can be determined through a high-performance device. In addition, since the high function device receives the CNN intermediate stage data signal from the low function device and identifies and judges it, real-time inspection can be performed.

[実施の形態2]
図4は、この発明の実施の形態2による画像処理システム100Bを示した模式図である。
[Embodiment 2]
FIG. 4 is a schematic diagram showing an image processing system 100B according to Embodiment 2 of the present invention.

図4を参照して、画像処理システム100Bは、低機能装置10X,10Yと、高機能装置20とを含む。低機能装置10X,10Yは、撮像装置11X,11Yをそれぞれ含む。高機能装置20は、図1と同様に、マルチコアプロセッサ21と、ストレージ22と、高CNN演算部23とを含む。 Referring to FIG. 4, image processing system 100B includes low-function devices 10X and 10Y and high-function device 20. As shown in FIG. The low-function devices 10X and 10Y include imaging devices 11X and 11Y, respectively. The high-performance device 20 includes a multi-core processor 21, a storage 22, and a high CNN computing section 23, as in FIG.

撮像装置11Xは、判定時間T1の間隔で流れてくるワーク1X,2X,3X,・・・,nX(以下、ワークnXとも総称する)を順次撮像する。低機能装置10Xは、撮像装置11Xの撮像結果に基づいて、画像信号Gr1またはCNNの中間段階のデータ信号Di1を生成し、これらを高機能装置20に送信する。 The imaging device 11X sequentially images works 1X, 2X, 3X, . The low-function device 10X generates an intermediate-stage data signal Di1 of the image signal Gr1 or CNN based on the imaging result of the imaging device 11X, and transmits these to the high-function device 20. FIG.

撮像装置11Yは、判定時間T2の間隔で流れてくるワーク1Y,2Y,3Y,・・・,nY(以下、ワークnYとも総称する)を順次撮像する。低機能装置10Yは、撮像装置11Yの撮像結果に基づいて、画像信号Gr2またはCNNの中間段階のデータ信号Di2を生成し、これを高機能装置20に送信する。 The imaging device 11Y sequentially images works 1Y, 2Y, 3Y, . The low function device 10Y generates an intermediate stage data signal Di2 of the image signal Gr2 or CNN based on the imaging result of the imaging device 11Y, and transmits this to the high function device 20. FIG.

高機能装置20は、画像信号Gr1,Gr2またはデータ信号Di1,Di2を受けて、高CNN演算部23において画像信号Gr1,Gr2またはデータ信号Di1,Di2のCNN演算を行なう。高機能装置20は、高CNN演算部23での演算結果に基づいて、ワークnXの判定結果を示す判定信号Jd1を生成し、これを低機能装置10Xに送信する。また、高機能装置20は、高CNN演算部23での演算結果に基づいて、ワークnYの判定結果を示す判定信号Jd2を生成し、これを低機能装置10Yに送信する。高機能装置20は、CNNの再学習時には、再学習済みのモデルデータ信号Dm1,Dm2を低機能装置10X,10Yにそれぞれ送信する。 Highly functional device 20 receives image signals Gr1 and Gr2 or data signals Di1 and Di2, and performs CNN operation of image signals Gr1 and Gr2 or data signals Di1 and Di2 in high CNN operation section 23 . The highly functional device 20 generates a determination signal Jd1 indicating the determination result of the work nX based on the computation result of the high CNN computing section 23, and transmits this to the low functional device 10X. Further, the highly functional device 20 generates a determination signal Jd2 indicating the determination result of the workpiece nY based on the computation result of the high CNN computing section 23, and transmits this to the low functional device 10Y. When re-learning the CNN, the high-function device 20 transmits the re-learned model data signals Dm1 and Dm2 to the low-function devices 10X and 10Y, respectively.

以上のように、実施の形態2によれば、高機能装置側に精密な判定ができるCNNの学習済みのネットワークモデルを置くことにより、CNNを用いた検査において複数の低機能装置の1つ以上で判定が難しいワークであっても高機能装置を介してワークの識別度を高めて判定することができる。 As described above, according to Embodiment 2, by placing a CNN-trained network model capable of making precise judgments on the high-performance device side, one or more of a plurality of low-function devices can be detected in an inspection using the CNN. Even if the work is difficult to judge by the high-performance device, it can be judged by increasing the discrimination degree of the work.

[実施の形態3]
図5は、この発明の実施の形態3による画像処理システム100Cの判断の流れの一例を示した模式図である。
[Embodiment 3]
FIG. 5 is a schematic diagram showing an example of the determination flow of the image processing system 100C according to Embodiment 3 of the present invention.

図5の画像処理システム100Cは、低機能装置LFD1,LFD2,・・・,LFDnと、高機能装置HFDとを含む。低機能装置LFD1は、撮像装置の撮像結果を判断して、画像信号Gr1またはCNNの中間段階のデータ信号Di1を生成し、これを高機能装置20に送信する。高機能装置HFDは、高CNN演算部での演算結果を判断して、ワークの判定結果を示す判定信号Jd1を生成し、これを低機能装置LFD1に送信する。高機能装置HFDは、CNNの再学習時には、再学習済みのモデルデータ信号Dm1を低機能装置LFD1に送信する。 The image processing system 100C of FIG. 5 includes low function devices LFD1, LFD2, . . . , LFDn and a high function device HFD. The low-function device LFD1 judges the imaging result of the imaging device, generates the image signal Gr1 or the intermediate-stage data signal Di1 of the CNN, and transmits it to the high-function device 20 . The high function device HFD judges the calculation result in the high CNN calculation unit, generates a judgment signal Jd1 indicating the work judgment result, and transmits this to the low function device LFD1. The high-function device HFD transmits the re-learned model data signal Dm1 to the low-function device LFD1 when re-learning the CNN.

図6は、図5の判断の流れに対応する画像処理システム100CのCNNモデルの一例を示した模式図である。 FIG. 6 is a schematic diagram showing an example of a CNN model of the image processing system 100C corresponding to the flow of judgment in FIG.

図6に示すように、低機能装置LFD1は、畳み込み層10Cを含むCNN10Mのネットワークモデルを有する。CNNは、畳み込み層(Convolution Layer)と全結合層(Fully Connected Layer)とを含む。この例では、低機能装置LFD1から高機能装置HFDへの画像信号Gr1として画像信号が送られており、これを受けて高機能装置HFDが低機能装置LFD1の判断を支援している。高機能装置HFDは、畳み込み層10Cを含むCNN20Mのネットワークモデルを有する。 As shown in FIG. 6, low function device LFD1 has a network model of CNN 10M including convolutional layer 10C. A CNN includes a convolution layer and a fully connected layer. In this example, an image signal is sent as an image signal Gr1 from the low-function device LFD1 to the high-function device HFD, and the high-function device HFD receives this signal and assists the determination of the low-function device LFD1. The intelligent device HFD has a network model of CNN 20M including convolutional layers 10C.

図7は、図5の判断の流れに対応する画像処理システム100CのCNNモデルの他の一例を示した模式図である。 FIG. 7 is a schematic diagram showing another example of the CNN model of the image processing system 100C corresponding to the flow of judgment in FIG.

図7に示すように、低機能装置LFD1は、畳み込み層10C1,10C2を含むCNN10Mのネットワークモデルを有する。この例では、低機能装置LFD1から高機能装置HFDへCNNの中間段階のデータ信号Di1が送られており、これを受けて高機能装置HFDが低機能装置LFD1の判断を一部支援している。低機能装置LFD1は、CNNの中間段階のデータ信号Di1を送った結果、畳み込み層10C1を含むCNN10XMのネットワークモデルとなる。高機能装置HFDは、データ信号Di1を受けた結果、畳み込み層10C2を含むCNN20XMのネットワークモデルとなる。 As shown in FIG. 7, low function device LFD1 has a network model of CNN 10M including convolutional layers 10C1 and 10C2. In this example, an intermediate stage data signal Di1 of CNN is sent from the low function device LFD1 to the high function device HFD, and the high function device HFD partially supports the decision of the low function device LFD1 in response to this. . The low function device LFD1 sends the CNN intermediate stage data signal Di1 resulting in a network model of CNN 10XM including convolutional layer 10C1. As a result of receiving data signal Di1, high function device HFD becomes a network model of CNN 20XM including convolutional layer 10C2.

以上のように、実施の形態3によれば、高機能装置側に精密な判定ができるCNNの学習済みのネットワークモデルを置くことにより、CNNを用いた検査において、低機能装置から画像信号が送られた場合には、低機能装置の判断を支援する。また、低機能装置からCNNの中間段階のデータ信号が送られた場合には、低機能装置の判断を一部支援する。これにより、CNNを用いた検査において低機能装置で判定が難しいワークであっても高機能装置を介して判定することができる。 As described above, according to the third embodiment, by placing a trained network model of a CNN capable of making precise judgments on the high-performance device side, an image signal is sent from the low-function device in an inspection using the CNN. support the decision of the low-function device if It also partially supports the judgment of the low-function device when the intermediate stage data signal of the CNN is sent from the low-function device. As a result, even a workpiece that is difficult to determine with a low-performance device in an inspection using a CNN can be determined through a high-performance device.

[実施の形態4]
図8は、この発明の実施の形態4による画像処理システム100Dの判断の流れの一例を示した模式図である。
[Embodiment 4]
FIG. 8 is a schematic diagram showing an example of the determination flow of the image processing system 100D according to Embodiment 4 of the present invention.

図8の画像処理システム100Dは、低機能装置LFD1,LFD2,・・・,LFDnと、高機能装置HFDとを含む。低機能装置LFD1は、撮像装置の撮像結果を判断して、画像信号Gr1またはCNNの中間段階のデータ信号Di1を生成し、これを高機能装置20に送信する。高機能装置HFDは、高CNN演算部での演算結果を判断して、ワークの判定結果を示す判定信号Jd10を生成し、これを低機能装置LFD1に送信する。高機能装置HFDは、CNNの再学習時には、再学習済みのモデルデータ信号Dm10を低機能装置LFD1に送信する。 The image processing system 100D of FIG. 8 includes low function devices LFD1, LFD2, . . . , LFDn and a high function device HFD. The low-function device LFD1 judges the imaging result of the imaging device, generates the image signal Gr1 or the intermediate-stage data signal Di1 of the CNN, and transmits it to the high-function device 20 . The high-performance device HFD judges the calculation result of the high-CNN calculation unit, generates a judgment signal Jd10 indicating the work judgment result, and transmits it to the low-function device LFD1. The high-function device HFD transmits the re-learned model data signal Dm10 to the low-function device LFD1 when re-learning the CNN.

続いて、低機能装置LFD2は、撮像装置の撮像結果を判断して、画像信号Gr2またはCNNの中間段階のデータ信号Di2を生成し、これを高機能装置20に送信する。同様に、低機能装置LFDnは、撮像装置の撮像結果を判断して、画像信号GrnまたはCNNの中間段階のデータ信号Dinを生成し、これを高機能装置20に送信する(n=1~n)。 Subsequently, the low function device LFD2 judges the imaging result of the imaging device, generates the image signal Gr2 or the intermediate stage data signal Di2 of the CNN, and transmits this to the high function device 20. FIG. Similarly, the low function device LFDn judges the image pickup result of the image pickup device, generates the intermediate stage data signal Din of the image signal Grn or CNN, and transmits this to the high function device 20 (n=1 to n ).

高機能装置HFDは、低機能装置LFDnからの画像信号GrnまたはCNNの中間段階のデータ信号Dinを受けて、CNNモデルを再学習する。高機能装置HFDは、再学習の結果をふまえて、ワークの判定結果を示す判定信号Jdnおよび再学習済みのモデルデータ信号Dmnを生成し、これらを低機能装置LFD1,LFD2,・・・,LFDnにそれぞれ送信する。 The high function device HFD receives the image signal Grn from the low function device LFDn or the intermediate stage data signal Din of the CNN, and re-learns the CNN model. Based on the result of re-learning, the high-function device HFD generates a judgment signal Jdn indicating the judgment result of the workpiece and a re-learned model data signal Dmn, and sends them to the low-function devices LFD1, LFD2, . . . , LFDn. to each.

図9は、図8の判断の流れに対応する画像処理システム100DのCNNモデルの一例を示した模式図である。 FIG. 9 is a schematic diagram showing an example of a CNN model of the image processing system 100D corresponding to the flow of judgment in FIG.

図9に示すように、高機能装置HFDは、畳み込み層20Cを含むCNN20Mのネットワークモデルを有する。この例では、高機能装置HFDから低機能装置LFD1,LFD2へ、ワークの判定結果を示す判定信号および再学習済みのモデルデータ信号がそれぞれ送られている。低機能装置LFD1,LFD2は、再学習結果を受けて、CNNモデルのうち全結合層の部分を改変する。その結果、低機能装置LFD1は、畳み込み層20Cおよび全結合層10Xeを含むCNN10XMのネットワークモデルを有する。低機能装置LFD2は、畳み込み層20Cおよび全結合層10Yeを含むCNN10YMのネットワークモデルを有する。 As shown in FIG. 9, the intelligent device HFD has a network model of CNN 20M including convolutional layers 20C. In this example, a determination signal indicating the determination result of the work and a re-learned model data signal are sent from the high function device HFD to the low function devices LFD1 and LFD2, respectively. The low-function devices LFD1 and LFD2 modify the fully connected layer portion of the CNN model in response to the re-learning results. As a result, low function device LFD1 has a network model of CNN 10XM, including convolutional layer 20C and fully connected layer 10Xe. Low function device LFD2 has a network model of CNN 10YM including convolutional layer 20C and fully connected layer 10Ye.

上記のように、再学習では、まず、高機能装置HFDが、低機能装置LFD1,LFD2から画像信号またはCNNの中間段階のデータ信号を受けて、CNNモデルの全体を再学習する。高機能装置HFDは、学習済みの高機能装置側のCNNモデルの一部分を移植した低機能装置用のCNNモデルを作成し、それを再学習する。低機能装置LFD1,LFD2は、高機能装置HFDから当該低機能装置用の再学習済みCNNモデルをそれぞれ受ける。 As described above, in the re-learning, first, the high function device HFD receives image signals or CNN intermediate stage data signals from the low function devices LFD1 and LFD2, and re-learns the entire CNN model. The high function device HFD creates a CNN model for the low function device by transplanting a part of the learned CNN model of the high function device side, and relearns it. The low function devices LFD1 and LFD2 each receive a retrained CNN model for the low function device from the high function device HFD.

以上のように、実施の形態4によれば、高機能装置側に精密な判定ができるCNNの学習済みのネットワークモデルを置き、低機能装置側ではそのネットワークの一部分を使用して新たなCNNモデルを構築することにより、CNNを用いた検査において低機能装置で判定が難しいワークであっても高機能装置を介して判定することができる。 As described above, according to the fourth embodiment, a trained network model of a CNN capable of making accurate judgments is placed on the high-performance device side, and a part of the network is used on the low-performance device side to generate a new CNN model. By constructing , even a workpiece that is difficult to determine with a low-performance device in an inspection using a CNN can be determined through a high-performance device.

[実施の形態5]
図10は、この発明の実施の形態5による画像処理システム200を示した模式図である。
[Embodiment 5]
FIG. 10 is a schematic diagram showing an image processing system 200 according to Embodiment 5 of the present invention.

図10を参照して、画像処理システム200は、低機能装置10と、高機能装置20と、品質管理装置30と、ケーブル50とを含む。低機能装置10は、図1と同様に、撮像装置11を含む。高機能装置20は、図1と同様に、マルチコアプロセッサ21と、ストレージ22と、高CNN演算部23とを含む。 Referring to FIG. 10 , image processing system 200 includes low function device 10 , high function device 20 , quality control device 30 and cable 50 . The low function device 10 includes an imaging device 11 as in FIG. The high-performance device 20 includes a multi-core processor 21, a storage 22, and a high CNN computing section 23, as in FIG.

撮像装置11は、流れてくるワーク1,2,3,・・・,n(以下、ワークnとも総称する)を順次撮像する。低機能装置10は、撮像装置11の撮像結果に基づいて、比較的識別度の高い画像信号Gr1、またはデータ信号Di1を生成し、これをケーブル50を介して品質管理装置30に送信する。また、低機能装置10は、撮像装置11の撮像結果に基づいて、比較的識別度の低い画像信号Gr2、またはデータ信号Di2を生成し、これをケーブル50を介して高機能装置20に送信する。高機能装置20は、画像信号Gr2およびデータ信号Di2を高CNN演算部23でさらに演算した判定信号Kdおよびモデルデータ信号Emを品質管理装置30に送信する。 The image capturing device 11 sequentially captures images of the works 1, 2, 3, . The low function device 10 generates an image signal Gr1 or data signal Di1 with a relatively high degree of discrimination based on the imaging result of the imaging device 11, and transmits this to the quality control device 30 via the cable 50. In addition, the low function device 10 generates an image signal Gr2 or a data signal Di2 with a relatively low degree of discrimination based on the imaging result of the imaging device 11, and transmits this to the high function device 20 via the cable 50. . The high-performance device 20 transmits to the quality control device 30 a judgment signal Kd and a model data signal Em obtained by further calculating the image signal Gr2 and the data signal Di2 by the high CNN calculator 23 .

図11は、この発明の実施の形態5による画像処理システム200の判断の流れの一例を示した模式図である。 FIG. 11 is a schematic diagram showing an example of the determination flow of the image processing system 200 according to Embodiment 5 of the present invention.

図11の画像処理システム200は、低機能装置LFDと、高機能装置HFDと、品質管理装置QMDとを含む。低機能装置LFDは、撮像装置の撮像結果を判断して、比較的識別度の高い画像信号Gr1、またはデータ信号Di1を生成し、これを品質管理装置QMDに送信する。また、低機能装置LFDは、撮像装置の撮像結果に基づいて、比較的識別度の低い画像信号Gr2、またはデータ信号Di2を生成し、これを高機能装置HFDに送信する。高機能装置HFDは、画像信号Gr2またはデータ信号Di2を高CNN演算部でさらに演算した判定画像および判定結果を含む判定信号Kdならびに再学習時にはモデルデータ信号Emを品質管理装置QMDに送信する。 The image processing system 200 of FIG. 11 includes a low function device LFD, a high function device HFD, and a quality control device QMD. The low function device LFD judges the imaging result of the imaging device, generates an image signal Gr1 or data signal Di1 with a relatively high degree of discrimination, and transmits this to the quality control device QMD. Also, the low-function device LFD generates an image signal Gr2 or a data signal Di2 with a relatively low degree of discrimination based on the imaging result of the imaging device, and transmits this to the high-function device HFD. The high-performance device HFD transmits to the quality control device QMD a judgment image obtained by further calculating the image signal Gr2 or the data signal Di2 by the advanced CNN calculation unit, a judgment signal Kd including judgment results, and a model data signal Em during re-learning.

図12は、この発明の実施の形態5による画像処理システム200の判断の流れの一例を示したフロー図である。 FIG. 12 is a flow chart showing an example of the flow of judgment of the image processing system 200 according to Embodiment 5 of the present invention.

図12を参照して、まず、ステップS1において、低機能装置10で対象物たるワークnを識別する。ワークnの識別度が一定のしきい値(たとえば50%)以上であれば、ステップS2において、ワークの番号、判定画像および判定結果を品質管理装置30に送る。一方、ワークnの識別度が一定のしきい値未満であれば、ステップS3において、ワークの番号および判定画像を高機能装置20に送る。 Referring to FIG. 12, first, in step S1, the low function device 10 identifies a workpiece n as an object. If the degree of identification of work n is equal to or greater than a certain threshold value (for example, 50%), the work number, judgment image and judgment result are sent to quality control device 30 in step S2. On the other hand, if the degree of identification of work n is less than the certain threshold value, the number of the work and the determination image are sent to high function device 20 in step S3.

ステップS4では、高機能装置20で、低機能装置10からの判定画像に基づいてワークを再度判定する。ステップS5では、ワークの番号、判定画像および判定結果を高機能装置20から品質管理装置30に送る。ステップS6では、ワークの残りがゼロかどうかを判定する。ワークの残りがゼロでなければ、ステップS1に戻る。ワークの残りがゼロであれば、検査を終了する。 In step S<b>4 , the highly functional device 20 again determines the workpiece based on the determination image from the low functional device 10 . In step S5, the work number, judgment image, and judgment result are sent from the high function device 20 to the quality control device 30. FIG. In step S6, it is determined whether or not the remaining work is zero. If the remaining work is not zero, the process returns to step S1. If the remaining workpiece is zero, the inspection is terminated.

図13は、この発明の実施の形態5による画像処理システム200のワークの識別度に対するデータの配分を示した図である。 FIG. 13 is a diagram showing distribution of data with respect to work discrimination in the image processing system 200 according to Embodiment 5 of the present invention.

図13に示すように、ワーク1は、低機能装置LFDでの識別度が70%であるため、低機能装置LFDから品質管理装置QMDにのみワークの番号、判定画像およびOKの判定結果が送られ、高機能装置HFDには送られない。一方、ワーク2は、低機能装置LFDでの識別度が45%であるため、ワークの番号、判定画像およびNGの判定結果が、低機能装置LFDから高機能装置HFDに送られる。高機能装置HFDでは、判定画像を高CNN演算部でさらに演算し、識別度が80%に高められたOKの判定結果が、高機能装置HFDから品質管理装置QMDに送られる。品質管理装置QMDは、ワークの番号ごとに、ワークの判定情報等をワークと関連付ける。 As shown in FIG. 13, since work 1 has a recognition degree of 70% in the low-function device LFD, the work number, judgment image, and OK judgment result are sent only from the low-function device LFD to the quality control device QMD. and not sent to the intelligent device HFD. On the other hand, since work 2 has an identification degree of 45% in the low-function device LFD, the work number, judgment image, and NG judgment result are sent from the low-function device LFD to the high-function device HFD. In the high-performance device HFD, the judgment image is further calculated by the high CNN calculation unit, and an OK judgment result with the identification degree increased to 80% is sent from the high-function device HFD to the quality control device QMD. The quality control device QMD associates work determination information and the like with the work for each work number.

以上のように、実施の形態5によれば、高機能装置側に精密な判定ができるCNNの学習済みのネットワークモデルを置き、さらに対象物を管理する品質管理装置を置くことにより、CNNを用いた検査において低機能装置で判定が難しいワークであっても高機能装置を介して効率的に判定および管理することができる。 As described above, according to Embodiment 5, a CNN is used by placing a trained network model of CNN capable of making precise judgments on the high-performance device side and further placing a quality control device for managing objects. Even workpieces that are difficult to judge with a low-function device in an inspection that has been carried out can be judged and managed efficiently through a high-function device.

今回開示された実施の形態は、すべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した実施の形態の説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。 The embodiments disclosed this time should be considered as examples and not restrictive in all respects. The scope of the present invention is indicated by the scope of the claims rather than the description of the above-described embodiments, and is intended to include all modifications within the scope and meaning equivalent to the scope of the claims.

10,10X,10Y,LFD,LFD1,LFD2,LFDn 低機能装置、10C,10C1,10C2,20C 畳み込み層、10Xe,10Ye 全結合層、11,11X,11Y 撮像装置、12 カメラI/F、13,22 ストレージ、14 CPU、15,24 RAM、16,25 通信I/F、20,HFD 高機能装置、21 マルチコアプロセッサ、23 高CNN演算部、30,QMD 品質管理装置、50 ケーブル、100A,100B,200 画像処理システム。 10, 10X, 10Y, LFD, LFD1, LFD2, LFDn low function device, 10C, 10C1, 10C2, 20C convolution layer, 10Xe, 10Ye fully connected layer, 11, 11X, 11Y imaging device, 12 camera I/F, 13, 22 storage, 14 CPU, 15, 24 RAM, 16, 25 communication I/F, 20, HFD high-performance device, 21 multi-core processor, 23 high CNN calculation unit, 30, QMD quality control device, 50 cable, 100A, 100B, 200 image processing system;

Claims (7)

1または複数の第1の装置と、前記第1の装置より演算能力の高い第2の装置とを用いて少なくとも1つの対象物を判定する画像処理システムであって、
前記第1の装置は、
前記対象物の撮像画像に第1のニューラルネットワークを適用して前記対象物を識別する第1の判定結果を出力する手段と、
前記第1のニューラルネットワークの中間段階のデータ信号を前記第2の装置に出力する手段とを含み、
前記第1のニューラルネットワークは、第1の畳み込み層と、第2の畳み込み層とを有し、
前記データ信号は、前記第1の畳み込み層の出力信号であり、
前記第2の装置は、前記第2の畳み込み層を有する第2のニューラルネットワークを用いて前記対象物を識別する第2の判定結果を出力する手段を含み、
前記第2の判定結果を出力する手段は、前記データ信号を前記第2の畳み込み層に入力する、画像処理システム。
An image processing system for determining at least one object using one or more first devices and a second device having higher computing power than the first devices,
The first device is
means for applying a first neural network to the captured image of the object and outputting a first determination result for identifying the object;
means for outputting intermediate stage data signals of said first neural network to said second device;
The first neural network has a first convolutional layer and a second convolutional layer,
the data signal is the output signal of the first convolutional layer;
the second device includes means for outputting a second determination result identifying the object using a second neural network having the second convolutional layer;
The image processing system, wherein the means for outputting the second determination result inputs the data signal to the second convolutional layer.
前記第1の装置は、前記第2の判定結果を受けて、前記対象物をリアルタイムで判定する、請求項1に記載の画像処理システム。 2. The image processing system according to claim 1, wherein said first device receives said second determination result and determines said object in real time. 前記第1の装置は、前記第1の判定結果が所定の確度未満の前記撮像画像を前記第2の装置に出力する手段を含み、
前記第2の装置は、前記所定の確度未満の前記撮像画像に基づいて、前記第2のニューラルネットワークを再学習する手段を含む、請求項1に記載の画像処理システム。
The first device includes means for outputting the captured image for which the first determination result is less than a predetermined accuracy to the second device,
2. The image processing system according to claim 1 , wherein said second device includes means for re-learning said second neural network based on said captured images with less than said predetermined accuracy.
前記再学習する手段は、オフライン時に前記第2のニューラルネットワークを再学習する、請求項に記載の画像処理システム。 4. The image processing system according to claim 3 , wherein said re-learning means re-learns said second neural network offline. 前記第2の装置は、
前記再学習された前記第2のニューラルネットワークのうち、前記第1のニューラルネットワークと共通する部分に基づいて、前記第1のニューラルネットワークのモデルを作成する手段と、
前記第1のニューラルネットワークのモデルうち、前記第1のニューラルネットワークに特有の部分を再学習する手段とを含む、請求項に記載の画像処理システム。
The second device is
means for creating a model of the first neural network based on portions of the retrained second neural network that are common to the first neural network;
4. The image processing system of claim 3 , further comprising means for re-learning portions of the model of the first neural network that are specific to the first neural network.
前記対象物ごとに判定結果を管理する管理装置をさらに備え、
前記第1の装置は、
前記第1の判定結果を前記管理装置に出力する手段と、
前記第1の判定結果が所定の確度未満の前記撮像画像を前記第2の装置に出力する手段とを含み、
前記第2の装置は、前記第2の判定結果を前記管理装置に出力する手段を含み、
前記管理装置は、前記対象物ごとに、前記第1の判定結果および前記第2の判定結果の少なくとも一方を前記対象物と関連付ける、請求項1~のいずれか1項に記載の画像処理システム。
further comprising a management device that manages determination results for each of the objects;
The first device is
means for outputting the first determination result to the management device;
and means for outputting the captured image in which the first determination result is less than a predetermined accuracy to the second device,
The second device includes means for outputting the second determination result to the management device,
The image processing system according to any one of claims 1 to 5 , wherein the management device associates at least one of the first determination result and the second determination result with the object for each object. .
前記第1のニューラルネットワークおよび前記第2のニューラルネットワークは、畳み込みニューラルネットワークである、請求項1~のいずれか1項に記載の画像処理システム。 The image processing system according to any one of claims 1 to 6 , wherein said first neural network and said second neural network are convolutional neural networks.
JP2017151291A 2017-08-04 2017-08-04 Image processing system Active JP7294768B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2017151291A JP7294768B2 (en) 2017-08-04 2017-08-04 Image processing system
US15/893,682 US10885620B2 (en) 2017-08-04 2018-02-11 Neural network image processing system
DE102018103244.7A DE102018103244B4 (en) 2017-08-04 2018-02-14 image processing system
CN201810153471.4A CN109387521B (en) 2017-08-04 2018-02-22 Image processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017151291A JP7294768B2 (en) 2017-08-04 2017-08-04 Image processing system

Publications (2)

Publication Number Publication Date
JP2019028960A JP2019028960A (en) 2019-02-21
JP7294768B2 true JP7294768B2 (en) 2023-06-20

Family

ID=65019955

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017151291A Active JP7294768B2 (en) 2017-08-04 2017-08-04 Image processing system

Country Status (4)

Country Link
US (1) US10885620B2 (en)
JP (1) JP7294768B2 (en)
CN (1) CN109387521B (en)
DE (1) DE102018103244B4 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200053886A (en) * 2018-11-09 2020-05-19 삼성전자주식회사 Neural processing unit, neural processing system, and application system
JP7118364B2 (en) * 2019-03-18 2022-08-16 オムロン株式会社 Image inspection equipment
JP7118365B2 (en) * 2019-03-20 2022-08-16 オムロン株式会社 Image inspection device
KR20190087351A (en) * 2019-07-05 2019-07-24 엘지전자 주식회사 System, method and apparatus for machine learning
DE102019209976A1 (en) * 2019-07-08 2021-01-14 Krones Ag Method and device for the inspection of containers in a container mass flow
JP7016179B2 (en) * 2020-02-21 2022-02-04 株式会社 システムスクエア Inspection equipment and programs
DE102021002363B3 (en) 2021-05-04 2022-09-08 Karlsruher Institut für Technologie, Körperschaft des öffentlichen Rechts Device for position-independent optical surface inspection

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012164026A (en) 2011-02-03 2012-08-30 Nippon Soken Inc Image recognition device and display device for vehicle
WO2013157265A1 (en) 2012-04-18 2013-10-24 パナソニック株式会社 Image processing system, server device, image pickup device and image evaluation method
JP2016191973A (en) 2015-03-30 2016-11-10 日本電気株式会社 Information transfer device, leaning system, information transfer method, and program

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000155803A (en) * 1998-11-20 2000-06-06 Nec Corp Character reading method and optical character reader
JP2007166374A (en) 2005-12-15 2007-06-28 Omron Corp Image processing apparatus
JP4735255B2 (en) 2005-12-29 2011-07-27 オムロン株式会社 Image processing apparatus and operation condition setting method for image processing apparatus
JP5184824B2 (en) 2007-06-15 2013-04-17 キヤノン株式会社 Arithmetic processing apparatus and method
JP5889727B2 (en) * 2012-06-18 2016-03-22 新電元工業株式会社 Electronic symbol marking apparatus and method thereof
JP5376024B1 (en) 2012-08-23 2013-12-25 富士ゼロックス株式会社 Image processing apparatus, program, and image processing system
CN103411974B (en) 2013-07-10 2017-02-08 杭州赤霄科技有限公司 Cloud big data-based planar material detection remote system and cloud big data-based planar material detection method
CN105938558B (en) * 2015-03-06 2021-02-09 松下知识产权经营株式会社 Learning method
JP2017068627A (en) * 2015-09-30 2017-04-06 株式会社東芝 Image processing terminal and image processing server
US9275347B1 (en) 2015-10-09 2016-03-01 AlpacaDB, Inc. Online content classifier which updates a classification score based on a count of labeled data classified by machine deep learning
US20170337682A1 (en) * 2016-05-18 2017-11-23 Siemens Healthcare Gmbh Method and System for Image Registration Using an Intelligent Artificial Agent
CN106228177A (en) 2016-06-30 2016-12-14 浙江大学 Daily life subject image recognition methods based on convolutional neural networks
CN106203333A (en) 2016-07-08 2016-12-07 乐视控股(北京)有限公司 Face identification method and system
US10402697B2 (en) * 2016-08-01 2019-09-03 Nvidia Corporation Fusing multilayer and multimodal deep neural networks for video classification
CN106875373B (en) 2016-12-14 2019-12-20 惠州旭鑫智能技术有限公司 Mobile phone screen MURA defect detection method based on convolutional neural network pruning algorithm
CN106940562B (en) 2017-03-09 2023-04-28 华南理工大学 Mobile robot wireless cluster system and neural network visual navigation method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012164026A (en) 2011-02-03 2012-08-30 Nippon Soken Inc Image recognition device and display device for vehicle
WO2013157265A1 (en) 2012-04-18 2013-10-24 パナソニック株式会社 Image processing system, server device, image pickup device and image evaluation method
JP2016191973A (en) 2015-03-30 2016-11-10 日本電気株式会社 Information transfer device, leaning system, information transfer method, and program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
久保田展行,"深層学習の活用を加速するIoT向けソフトウエア基盤",日経エレクトロニクス,第1179号,日経BP社,2017年4月20日,p.59-69

Also Published As

Publication number Publication date
DE102018103244A1 (en) 2019-02-07
DE102018103244B4 (en) 2023-02-23
CN109387521B (en) 2022-10-11
US20190043185A1 (en) 2019-02-07
CN109387521A (en) 2019-02-26
JP2019028960A (en) 2019-02-21
US10885620B2 (en) 2021-01-05

Similar Documents

Publication Publication Date Title
JP7294768B2 (en) Image processing system
US10717196B2 (en) Machine learning device, robot system, and machine learning method for learning workpiece picking operation
CN105069423B (en) A kind of human body attitude detection method and device
US20180307198A1 (en) Machined surface quality evaluation device
US20180307203A1 (en) Machining defect factor estimation device
Wang et al. On line tool wear monitoring based on auto associative neural network
CN112884768B (en) Neural network-based 3D printing online quality monitoring method, system and device
JP2021057042A (en) Product classification system and product classification method
CN111832432B (en) Cutter wear real-time prediction method based on wavelet packet decomposition and deep learning
CN114037673B (en) Hardware connection interface monitoring method and system based on machine vision
JP2021515885A (en) Methods, devices, systems and programs for setting lighting conditions and storage media
JP7164028B2 (en) LEARNING SYSTEM, DATA GENERATION DEVICE, DATA GENERATION METHOD, AND DATA GENERATION PROGRAM
JP7267841B2 (en) System control method and system
CN111695730A (en) ARIMA and RNN-based vertical mill vibration prediction method and device
CN110895716A (en) Inspection apparatus and machine learning method
CN111798518A (en) Mechanical arm posture detection method, device and equipment and computer storage medium
Katam et al. A review on technological advancements in the field of data driven structural health monitoring
NO20230513A1 (en) Autonomous fluid management using fluid digital twins
Jiang et al. Enhancing convolutional neural network deep learning for remaining useful life estimation in smart factory applications
Wang et al. Deep learning based multi-source heterogeneous information fusion framework for online monitoring of surface quality in milling process
Lee et al. Development of edge-based deep learning prediction model for defect prediction in manufacturing process
Lin et al. Tiny machine learning empowers climbing inspection robots for real-time multiobject bolt-defect detection
Shanthi et al. Machine Learning Architecture in Soft Sensor for Manufacturing Control and Monitoring System Based on Data Classification
Matsui et al. Deep Learning Based Real-time Visual Inspection for Harvesting Apples
Ibrahim et al. Predictive maintenance of high-velocity oxy-fuel machine using convolution neural network

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200303

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210416

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210511

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210630

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210720

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20211013

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20220412

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20220628

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220808

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20220927

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20230131

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230228

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20230404

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230608

R150 Certificate of patent or registration of utility model

Ref document number: 7294768

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150