JPH0756877A - Neural network device - Google Patents
Neural network deviceInfo
- Publication number
- JPH0756877A JPH0756877A JP19869993A JP19869993A JPH0756877A JP H0756877 A JPH0756877 A JP H0756877A JP 19869993 A JP19869993 A JP 19869993A JP 19869993 A JP19869993 A JP 19869993A JP H0756877 A JPH0756877 A JP H0756877A
- Authority
- JP
- Japan
- Prior art keywords
- signal
- output
- neuron
- neural network
- learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Feedback Control In General (AREA)
Abstract
Description
【0001】[0001]
【産業上の利用分野】本発明は、ニューラルネットワー
ク装置に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a neural network device.
【0002】[0002]
【従来の技術】認識や制御等の分野に従来の逐次処理に
代わり並列処理を行うニューラルネットワークの導入が
期待されているが、高速な学習機能を備えたハードウェ
アの実現がその導入のネックとなっている。現在、国内
外でニューラルネットワークのハードウェア化の研究が
活発に行われている(小池誠彦:「ニューラルネットワ
ークのハードウェア化に向けて」電子情報通信学会研究
報告 ICD92-12, Vol.92,No.74 (1992) )。2. Description of the Related Art In the field of recognition, control, etc., it is expected to introduce a neural network that performs parallel processing instead of conventional sequential processing. Has become. Currently, research on hardware implementation of neural networks is being actively conducted in Japan and overseas (Masahiko Koike: “Toward hardware implementation of neural networks” IEICE Research Report ICD92-12, Vol.92, No. .74 (1992)).
【0003】ニューラルネットワークはその構造や学習
則の違いにより分類される。一般的には多層構造のネッ
トワークをバックプロパゲーション法(D.L.Rumelhart,
J.L.McClelland and PDP Research Group:"Parallel Di
stributed Processing Vol.1" chapter 8, The MIT Pre
ss (1986))で学習させているものが多い。Neural networks are classified according to their structures and differences in learning rules. Generally, a multi-layered network is backpropagated (DLRumelhart,
JLMcClelland and PDP Research Group: "Parallel Di
stributed Processing Vol.1 "chapter 8, The MIT Pre
Many are taught by ss (1986)).
【0004】ハードウェアでニューラルネットワークを
実現させようとした場合、様々なアプローチがとられて
いるが、装置の小型化、処理の並列化のためには信号を
電流値、電圧値、光の強度などで扱うアナログ方式のニ
ューラルネットワークが有望視されている。Various approaches have been taken to realize a neural network by hardware, but in order to downsize the device and parallelize the processing, signals are converted into current value, voltage value, light intensity. Analog system neural networks, which are dealt with by others, are considered promising.
【0005】ところがこれらのものは装置のダイナミッ
クレンジに制限がある。例えば、電子回路で作られたア
ナログ乗算器を考えると、入力がある範囲を越えると線
形性が悪くなるために、ある程度の線形性が保証される
動作範囲は制限される(P.R.Gray and R.G.Meyer:"Analy
sis and Design of Analog Integrated Circuits",chap
ter 10, John Wiley & Sons,(1984)) 。乗算器の非線形
性の影響による理想的な演算結果からの差は乗算結果に
乗った誤差と考えられる。ニューラルネットワークにお
いて乗算器の誤差は学習の収束を悪化させる主要な原因
になる(T.Morishita, Y.Tamura and T.Otuki:"A BiCMOS
Analog Neural Network with Dynamically Updated We
ights",1990 IEEE International Solid-State Circuit
s Conference Digest of Technical Papers, Vol.33, p
p.142-143,(1990)) 。従ってこれを避けるために、信号
のレベルを装置のダイナミックレンジに合わせることが
必要となる。しかしながら、このために信号の絶対値が
他の変数の大きさと相対的な違いが生じることで理想的
な演算結果からずれるという新たな問題に直面する。こ
の問題は学習に必要な逆伝搬信号において重大である。However, these devices are limited in the dynamic range of the device. For example, when considering an analog multiplier made of electronic circuits, the linearity is deteriorated when the input exceeds a certain range, so that the operating range where a certain degree of linearity is guaranteed is limited (PRGray and RG Meyer: " Analy
sis and Design of Analog Integrated Circuits ", chap
ter 10, John Wiley & Sons, (1984)). The difference from the ideal calculation result due to the non-linearity of the multiplier is considered to be an error in the multiplication result. Multiplier error is a major cause of poor learning convergence in neural networks (T. Morishita, Y. Tamura and T. Otuki: "A BiCMOS.
Analog Neural Network with Dynamically Updated We
ights ", 1990 IEEE International Solid-State Circuit
s Conference Digest of Technical Papers, Vol.33, p
p.142-143, (1990)). Therefore, in order to avoid this, it is necessary to match the signal level to the dynamic range of the device. However, this causes a new problem that the absolute value of the signal deviates from the ideal calculation result due to the relative difference between the absolute value of the signal and the magnitude of other variables. This problem is significant in the back-propagating signal needed for learning.
【0006】このように、従来のアナログのニューラル
ネットワーク装置においては、装置の入力、出力のダイ
ナミックレンジが固定的であったため、入力、出力の信
号の大きさにより学習が進行しなくなる場合があり、十
分な学習性能を持ったアナログニューラルネットワーク
装置の実現の障害となっていた。As described above, in the conventional analog neural network apparatus, since the dynamic range of the input and output of the apparatus is fixed, the learning may not proceed depending on the magnitude of the input and output signals. This has been an obstacle to the realization of an analog neural network device with sufficient learning performance.
【0007】[0007]
【発明が解決しようとする課題】このように、従来のア
ナログニューラルネットワーク装置では、装置の入力、
出力のダイナミックレンジに制限があり、学習に必要な
逆伝搬信号が理想値からずれるために、十分な学習性能
の実現が非常に困難であった。As described above, in the conventional analog neural network device, the input of the device,
Since the output dynamic range is limited and the back-propagation signal necessary for learning deviates from the ideal value, it was very difficult to realize sufficient learning performance.
【0008】本発明は、前向き信号及び逆向き信号の出
力振幅を可変としたことにより、学習に必要な逆伝搬信
号の値を理想値に近付けることで有効な学習を可能とし
たニューラルネットワーク装置を実現することを目的と
する。The present invention provides a neural network device that enables effective learning by making the output amplitudes of the forward signal and the backward signal variable so that the value of the back-propagation signal required for learning approaches an ideal value. Aim to achieve.
【0009】[0009]
【課題を解決するための手段】上記目的を達成するため
に、本出願に含まれる発明のニューラルネットワーク装
置は、複数のニューロンを備えた第1、第2のニューロ
ン層と、その第1、第2のニューロン層におけるニュー
ロン同士を結合するシナプスからなるシナプス層とから
なり、外部から与えた教師信号をもとに算出される誤差
信号に基づき逐次更新される各シナプスの結合の重みを
用いて、第1のニューロン層の出力信号に演算を施し、
第2のニューロン層に前記演算結果信号を転送するニュ
ーラルネットワーク装置において、学習が進行しなくな
った場合には、第2のニューロン層に転送される前記演
算結果信号を外部から与えた制御信号に基づき変更する
変更手段を有することを特徴とする。In order to achieve the above object, a neural network device of the invention included in the present application comprises first and second neuron layers having a plurality of neurons, and first and second neuron layers thereof. And a synapse layer composed of synapses connecting neurons in the two neuron layers, and using the connection weight of each synapse that is sequentially updated based on the error signal calculated based on the teacher signal given from the outside, Performing an operation on the output signal of the first neuron layer,
In a neural network device that transfers the operation result signal to the second neuron layer, if learning does not proceed, the operation result signal transferred to the second neuron layer is based on a control signal given from the outside. It is characterized by having a changing means for changing.
【0010】また入力層から出力層への前向きの信号経
路と、外部から与えた教師信号をもとに算出される誤差
信号を出力層から入力層側へ伝える逆向きの信号経路を
もち、前段のニューロンの前向き信号の出力と後段のニ
ューロンの逆向き信号の出力とでシナプス結合荷重の更
新量を求めてシナプス結合荷重値を変更する機能を有す
る多層構造型ニューラルネットワークにおいて、前段の
ニューロンの出力に重みを掛け算した結果の前向き信号
の出力と後段のニューロンからの誤差信号に重みを掛け
算した結果の逆向き信号の出力の出力値を外部から与え
た制御信号によって可変とする可変手段を有することを
特徴とする。Further, it has a forward signal path from the input layer to the output layer and a reverse signal path for transmitting an error signal calculated based on a teacher signal given from the outside from the output layer to the input layer side. In the multi-layered neural network that has the function of changing the synaptic connection weight value by obtaining the update amount of the synaptic connection weight between the output of the forward signal of the neuron and the output of the backward signal of the subsequent neuron, the output of the previous neuron A variable means for varying the output value of the output of the forward signal as a result of multiplying by the weight and the output value of the output of the backward signal as a result of multiplying the error signal from the neuron in the subsequent stage by the weight by a control signal given from the outside Is characterized by.
【0011】また望ましくは、前記可変手段は、前段の
ニューロンの出力に重みを掛け算した結果の前向き信号
の出力と後段のニューロンからの誤差信号に重みを掛け
算した結果の逆向き信号の出力の出力値を外部から与え
た制御信号によって層毎に独立に可変とする手段で構成
したことを特徴とする。Further preferably, the variable means outputs a forward signal output as a result of multiplying an output of the preceding neuron by a weight and an output of a reverse signal as a result of multiplying an error signal from the subsequent neuron by a weight. It is characterized in that it is configured by means for making the value independently variable for each layer by a control signal given from the outside.
【0012】また望ましくは、前記可変手段は、前段の
ニューロンの出力に重みを掛け算した結果の前向き信号
の出力と後段のニューロンからの誤差信号に重みを掛け
算した結果の逆向き信号の出力の出力値を外部から与え
た制御信号によって前向き信号と逆伝搬信号とをそれぞ
れ独立に可変とする手段で構成したことを特徴とする。Further preferably, the variable means outputs the output of the forward signal as a result of multiplying the output of the neuron in the preceding stage by a weight and the output of the output of the backward signal as a result of multiplying the error signal from the neuron in the subsequent stage by the weight. It is characterized in that it is configured by means for independently changing the forward signal and the back propagation signal by a control signal given from the outside.
【0013】[0013]
【作用】本発明のニューラルネットワーク装置によれ
ば、学習の進行状況等に応じて、前向き信号及び逆向き
信号の出力振幅を調節できる機能を備えているために、
学習に必要な逆伝搬信号の値を装置の動作範囲にあった
理想値に近付けることができ、十分な学習性能を持った
ニューラルネットワーク装置の実現に有効である。According to the neural network device of the present invention, since it has a function of adjusting the output amplitudes of the forward signal and the backward signal according to the progress of learning and the like,
The value of the back-propagation signal required for learning can be brought close to the ideal value within the operating range of the device, which is effective in realizing a neural network device with sufficient learning performance.
【0014】[0014]
【実施例】以下、本発明の実施例を図面を参照しつつ説
明する。図1は本発明のニューラルネットワーク装置の
シナプス部の基本構成を示す図である。ここでシナプス
部とは、図2のネットワークにおいて一方のニューロン
と他方のニューロンとを結合する部分8をいう。Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a diagram showing the basic configuration of the synapse unit of the neural network system of the present invention. Here, the synapse part means a part 8 that connects one neuron to the other neuron in the network of FIG.
【0015】シナプス部1は4つの信号ノード2A、2
B、2C、2Dと、シナプス結合値の記憶部3と、前向
き信号とシナプス結合値との乗算部4Aと、逆伝搬信号
とシナプス結合値との乗算部4Bと、学習制御部5と、
出力信号調整部6A、6Bとから構成される。The synapse section 1 has four signal nodes 2A and 2A.
B, 2C, 2D, a storage unit 3 for synapse connection values, a multiplication unit 4A for forward signals and synapse connection values, a multiplication unit 4B for backpropagation signals and synapse connection values, and a learning control unit 5,
It is composed of output signal adjusting units 6A and 6B.
【0016】学習は教師信号に対して現実の出力信号を
近づけるように進行するものであり、ノード2Aからの
入力とノード2Cからの逆伝搬信号(誤差信号)をもと
に、学習制御部で結合の重みを計算し、そのシナプスに
おける結合の重み(結合値)の値を更新して結合値記憶
部3に記憶する。The learning proceeds so that the actual output signal approaches the teacher signal, and the learning control section uses the input from the node 2A and the back-propagation signal (error signal) from the node 2C. The connection weight is calculated, and the value of the connection weight (connection value) at the synapse is updated and stored in the connection value storage unit 3.
【0017】ここで前向き信号はノード2Aから入力
し、乗算器4Aで重みを掛けられ、調整部6Aを通りノ
ード2Bより出力される。調整部6Aでは学習の進行具
合に応じて信号振幅の大きさを変更する。例えば乗算部
4Aの出力が微少で、ダイナミックレンジを有効に活用
していないために学習が進行しない場合には、振幅を大
きくするよう調整部6Aが動作する。逆に乗算部4Aの
出力が過大でダイナミックレンジを越えているために学
習が進行しない場合には、振幅を小さくするよう調整部
6Aが動作する。Here, the forward signal is input from the node 2A, weighted by the multiplier 4A, passed through the adjusting unit 6A, and output from the node 2B. The adjusting unit 6A changes the magnitude of the signal amplitude according to the progress of learning. For example, when the output of the multiplication unit 4A is very small and learning does not proceed because the dynamic range is not effectively utilized, the adjustment unit 6A operates to increase the amplitude. Conversely, when the learning does not proceed because the output of the multiplication unit 4A is too large and exceeds the dynamic range, the adjustment unit 6A operates to reduce the amplitude.
【0018】逆伝搬信号はノード2Cから入力し、乗算
器4Bで重みを掛けられ調整部6Bを通りノード2Dよ
り出力される。この場合にも、前向き信号の出力におけ
る調整部と同様の動作を行ない、調整部6Bでは乗算器
の出力に対して外部からの制御信号に応じてその振幅を
調節するという演算をおこなう。The backpropagation signal is input from the node 2C, weighted by the multiplier 4B, passed through the adjusting unit 6B, and output from the node 2D. Also in this case, the same operation as that of the adjusting unit in the output of the forward signal is performed, and the adjusting unit 6B performs a calculation of adjusting the amplitude of the output of the multiplier according to the control signal from the outside.
【0019】このようにすれば、前向き伝搬信号、逆伝
搬信号の信号振幅が装置のダイナミックレンジに制限さ
れることなく、有効に学習を行なうことが可能となる。
バックプロパゲーション法に代表される誤差を最急降下
法で減少させていく学習法では、出力層側から入力層側
へ逆伝搬する誤差信号をもとにシナプス結合の重みを更
新する。With this configuration, it is possible to effectively perform learning without limiting the signal amplitudes of the forward propagation signal and the backward propagation signal to the dynamic range of the device.
In the learning method that reduces the error represented by the back propagation method by the steepest descent method, the weight of the synapse coupling is updated based on the error signal that propagates back from the output layer side to the input layer side.
【0020】図2で示す3層構造のネットワークで、入
力層ニューロンiと中間層ニューロンjとをつなぐシナ
プスWijを学習させるために逆伝搬してくる誤差信号E
j は Ej =Fj'×Σk Fk'×(Tk −Ok )×Wjk …(1) と表される。ここで、各々の記号は Fj':中間層ニューロンjの微分値 Fk':出力層ニューロンkの微分値 Tk :出力層ニューロンkへの教師信号 Ok :出力層ニューロンkの出力値 Wjk:中間層ニューロンjと出力層ニューロンkとの間
のシナプス結合値 を表す。In the three-layered network shown in FIG. 2, an error signal E that propagates backward to learn the synapse Wij that connects the input layer neuron i and the intermediate layer neuron j.
j is expressed as Ej = Fj '* [Sigma] k Fk' * (Tk-Ok) * Wjk (1). Here, each symbol is: Fj ': differential value of the intermediate layer neuron j Fk': differential value of the output layer neuron k Tk: teacher signal to the output layer neuron k Ok: output value of the output layer neuron k Wjk: intermediate layer A synaptic connection value between the neuron j and the output layer neuron k is represented.
【0021】実際のハードウェアでは、ダイナミックレ
ンジの制限等により、次に示すような非理想的な演算が
行われている。 f' =dF' …(2) Σ' =σΣ …(3) (X−Y)' =m(X−Y) …(4) これらの式において、左辺は現実の装置において演算さ
れる値であり、右辺は理論的に求められる値である。ま
た(2)は微分演算、(3)は加算演算、(4)は減算
演算を表す。これらを使うと(1)式は次のように書き
換えられる。In actual hardware, the following non-ideal calculation is performed due to the limitation of the dynamic range and the like. f ′ = dF ′ (2) Σ ′ = σΣ (3) (X−Y) ′ = m (X−Y) (4) In these equations, the left side is a value calculated by an actual device. Yes, the right side is a theoretically obtained value. Further, (2) represents a differential operation, (3) represents an addition operation, and (4) represents a subtraction operation. Using these, equation (1) can be rewritten as follows.
【0022】 Ej =fj'×Σ'kfk'×(Tk −Ok )' ×Wjk =dj Fj'×σΣk dk Fk'×m(Tk −Ok )×Wjk =dj σdk mFj'×Σk Fk'×(Tk −Ok )×Wjk …(5) この中でd、mはハードウェア設計時に固定されるが、
σについてはバイアス値、ゲイン等の調整により容易に
調節できる。Ej = fj '× Σ'kfk' × (Tk-Ok) '× Wjk = dj Fj' × σΣk DK Fk '× m (Tk-Ok) × Wjk = dj σdk mFj' × Σk Fk '× ( Tk-Ok) × Wjk (5) In this, d and m are fixed at the time of hardware design,
σ can be easily adjusted by adjusting the bias value, the gain, and the like.
【0023】特に(3)式は Σ' =σΣ=Σσ' …(6) (σ' :装置に入力する複数信号のそれぞれの誤差信
号)と変形することができる。In particular, the equation (3) can be transformed into Σ ′ = σΣ = Σσ ′ (6) (σ ′: error signals of each of a plurality of signals input to the device).
【0024】したがってσ' の値を変えることにより、
(5)式の係数を調節することができる。これは例えば
この係数を1にして理想的な演算に近づけたり、この係
数を大きくして逆伝搬信号がノイズに埋もれないように
したりすることにより有効な学習が可能となる。更に
は、σの値を変えることにより、バックプロパゲーショ
ン法で使われている学習係数ηを任意の大きさで乗算操
作なしに導入することができ、σの値とともにηの値も
層毎に変えることができる。また、前向き信号に関して
は、σの値を変えることにより次段のニューロンの非線
形関数の傾きを変えられるという働きを有する。また、
σの値を変えることは信号を装置のダイナミックレンジ
に合わせられるという作用があるために、装置の大幅な
変更なしにネットワーク規模を変えられるという効果も
持つ。Therefore, by changing the value of σ ',
The coefficient of the equation (5) can be adjusted. For example, effective learning can be performed by setting the coefficient to 1 so as to approximate the ideal calculation, or by increasing the coefficient so that the back propagation signal is not buried in noise. Furthermore, by changing the value of σ, the learning coefficient η used in the backpropagation method can be introduced in an arbitrary size without multiplication operation, and the value of η together with the value of σ can be different for each layer. Can be changed. With respect to the forward signal, it also has a function of changing the slope of the nonlinear function of the next-stage neuron by changing the value of σ. Also,
Since changing the value of σ has the effect of matching the signal to the dynamic range of the device, it also has the effect that the network scale can be changed without drastically changing the device.
【0025】以上の実施例では、学習の進行状況に応じ
てシナプス内の調整部を制御する構成例について説明し
たが、以下のような変形例も可能である。図3に本発明
の第二の構成例を示す。これは前述の実施例で説明した
ニューラルネットワーク装置の基本構成に加えて、学習
制御部5または乗算部4Aに入力する前向き信号の振幅
を調整する調整部6Cや、学習制御部5または乗算部4
Bに入力する逆伝搬信号の振幅を調整する調整部6D、
結合値記憶部の出力信号の振幅を制御する制御部6E、
6Fを備えたことを特徴とする。これにより乗算部に入
力される結合値の信号振幅を制御して、装置の動作範囲
に適合した動作を保障することができる。In the above embodiment, the configuration example in which the adjusting unit in the synapse is controlled according to the progress of learning has been described, but the following modified examples are also possible. FIG. 3 shows a second configuration example of the present invention. This is, in addition to the basic configuration of the neural network device described in the above-described embodiment, an adjustment unit 6C that adjusts the amplitude of the forward signal input to the learning control unit 5 or the multiplication unit 4A, the learning control unit 5 or the multiplication unit 4.
An adjustment unit 6D that adjusts the amplitude of the back-propagation signal input to B,
A control unit 6E for controlling the amplitude of the output signal of the combined value storage unit,
It is characterized by having 6F. As a result, it is possible to control the signal amplitude of the combined value input to the multiplication unit, and to ensure an operation suitable for the operation range of the device.
【0026】例えばハード設計時に与えられる信号のダ
イナミックレンジと伝搬する信号振幅とを比較して、信
号振幅がダイナミックレンジを越えてしまう場合やノイ
ズレベルに埋もれてしまう場合に調整部を制御すること
も可能である。For example, by comparing the dynamic range of a signal given at the time of hardware design with the propagating signal amplitude, the adjusting unit may be controlled when the signal amplitude exceeds the dynamic range or is buried in the noise level. It is possible.
【0027】また学習制御部5によりシナプスでの結合
値を計算するが、この結合値が最大値に近い場合には学
習が進行しても結合値が飽和してしまい、見かけ上学習
が進行しなくなる場合がある。このような場合に調整部
を制御して結合値の信号を増幅することにより、見かけ
上の結合値を増加させることが可能となり、学習を更に
進行させることが可能となる。Further, the learning control unit 5 calculates the coupling value at the synapse. If this coupling value is close to the maximum value, the coupling value will be saturated even if the learning progresses, and the learning apparently proceeds. It may disappear. In such a case, by controlling the adjusting unit to amplify the signal of the combined value, the apparent combined value can be increased and the learning can be further advanced.
【0028】またニューラルネットワーク装置によって
は、シナプスの結合値を離散的に設ける構成も可能であ
るが、このときに結合値が離散的に変化するため離散点
の中間の値をとることができず、学習の進行が不安定に
なる場合がある。このような場合にも、各調整部をわず
かに変化させることにより、シナプスの前向き出力、逆
伝搬出力を微調整することが可能となり、結合値の分解
能を見かけ上向上させることができる。Depending on the neural network device, it is possible to provide the synapse coupling value discretely. However, at this time, the coupling value changes discretely, so that the intermediate value of the discrete points cannot be taken. , Learning progress may become unstable. Even in such a case, it is possible to finely adjust the forward output and the backward propagation output of the synapse by slightly changing each adjusting unit, and the resolution of the combined value can be apparently improved.
【0029】[0029]
【発明の効果】以上説明したように本発明によれば、装
置のダイナミックレンジの制限に適応して、十分な学習
性能を持ったニューラルネットワーク装置を実現するこ
とに有効である。As described above, according to the present invention, it is effective to realize the neural network device having sufficient learning performance by adapting to the limitation of the dynamic range of the device.
【図1】 本発明の基本的な構成例を示す図。FIG. 1 is a diagram showing a basic configuration example of the present invention.
【図2】 学習則を説明するための図。FIG. 2 is a diagram for explaining a learning rule.
【図3】 本発明の他の構成例を示す図。FIG. 3 is a diagram showing another configuration example of the present invention.
1…シナプス部 2…信号ノード 3…結合加重記憶部 4…乗算部 5…学習制御部 6…出力値調整部 7…ニューロン 8…シナプス DESCRIPTION OF SYMBOLS 1 ... Synapse part 2 ... Signal node 3 ... Connection weight storage part 4 ... Multiplication part 5 ... Learning control part 6 ... Output value adjustment part 7 ... Neuron 8 ... Synapse
Claims (4)
ューロン層と、その第1、第2のニューロン層における
ニューロン同士を結合するシナプスからなるシナプス層
とからなり、外部から与えた教師信号をもとに算出され
る誤差信号に基づき逐次更新される各シナプスの結合の
重みを用いて、第1のニューロン層の出力信号に演算を
施し、第2のニューロン層に前記演算結果信号を転送す
るニューラルネットワーク装置において、学習が進行し
なくなった場合には、第2のニューロン層に転送される
前記演算結果信号を外部から与えた制御信号に基づき変
更する変更手段を有することを特徴とするニューラルネ
ットワーク装置。1. A teacher externally provided, comprising first and second neuron layers each having a plurality of neurons, and a synapse layer composed of synapses connecting neurons in the first and second neuron layers. The output signal of the first neuron layer is operated using the connection weight of each synapse that is sequentially updated based on the error signal calculated based on the signal, and the operation result signal is applied to the second neuron layer. The neural network device for transferring has a changing means for changing the operation result signal transferred to the second neuron layer based on a control signal given from the outside when the learning is stopped. Neural network device.
と、外部から与えた教師信号をもとに算出される誤差信
号を出力層から入力層側へ伝える逆向きの信号経路をも
ち、前段のニューロンの前向き信号の出力と後段のニュ
ーロンの逆向き信号の出力とでシナプス結合荷重の更新
量を求めてシナプス結合荷重値を変更する機能を有する
多層構造型ニューラルネットワークにおいて、前段のニ
ューロンの出力に重みを掛け算した結果の前向き信号の
出力と後段のニューロンからの誤差信号に重みを掛け算
した結果の逆向き信号の出力の出力値を外部から与えた
制御信号によって可変とする可変手段を有することを特
徴とするニューラルネットワーク装置。2. A forward signal path from the input layer to the output layer, and a backward signal path for transmitting an error signal calculated based on a teacher signal given from the outside to the input layer side, In the multilayer neural network having the function of changing the synapse connection weight value by obtaining the update amount of the synapse connection weight by the output of the forward signal of the neuron in the front stage and the output of the backward signal of the neuron in the rear stage, It has a variable means for changing the output value of the output of the forward signal as a result of multiplying the output by the weight and the output of the backward signal as a result of multiplying the error signal from the neuron in the subsequent stage by the weight by the control signal given from the outside. A neural network device characterized by the above.
に重みを掛け算した結果の前向き信号の出力と後段のニ
ューロンからの誤差信号に重みを掛け算した結果の逆向
き信号の出力の出力値を外部から与えた制御信号によっ
て層毎に独立に可変とする手段で構成したことを特徴と
する請求項2記載のニューラルネットワーク装置。3. The variable means sets the output value of the output of the forward signal as a result of multiplying the output of the neuron in the preceding stage by weight and the output value of the output of the backward signal as a result of multiplying the error signal from the neuron in the subsequent stage by the weight. 3. The neural network device according to claim 2, wherein the neural network device is constituted by means for independently changing each layer by a control signal given from the outside.
に重みを掛け算した結果の前向き信号の出力と後段のニ
ューロンからの誤差信号に重みを掛け算した結果の逆向
き信号の出力の出力値を外部から与えた制御信号によっ
て前向き信号と逆伝搬信号とをそれぞれ独立に可変とす
る手段で構成したことを特徴とする請求項2記載のニュ
ーラルネットワーク装置。4. The variable means sets an output value of an output of a forward signal as a result of multiplying an output of a neuron in a preceding stage by a weight and an output value of an output of a backward signal as a result of multiplying an error signal from a neuron in a subsequent stage by weight. 3. The neural network device according to claim 2, wherein the forward signal and the back propagation signal are independently variable by a control signal given from the outside.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP19869993A JPH0756877A (en) | 1993-08-11 | 1993-08-11 | Neural network device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP19869993A JPH0756877A (en) | 1993-08-11 | 1993-08-11 | Neural network device |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH0756877A true JPH0756877A (en) | 1995-03-03 |
Family
ID=16395562
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP19869993A Pending JPH0756877A (en) | 1993-08-11 | 1993-08-11 | Neural network device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH0756877A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017102904A (en) * | 2015-10-23 | 2017-06-08 | 株式会社半導体エネルギー研究所 | Semiconductor device and electronic device |
JP2020197906A (en) * | 2019-06-03 | 2020-12-10 | 株式会社東芝 | Signal processing device, signal processing system, signal processing method, and program |
-
1993
- 1993-08-11 JP JP19869993A patent/JPH0756877A/en active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017102904A (en) * | 2015-10-23 | 2017-06-08 | 株式会社半導体エネルギー研究所 | Semiconductor device and electronic device |
JP2021108144A (en) * | 2015-10-23 | 2021-07-29 | 株式会社半導体エネルギー研究所 | Semiconductor device and electronic apparatus |
JP2020197906A (en) * | 2019-06-03 | 2020-12-10 | 株式会社東芝 | Signal processing device, signal processing system, signal processing method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US5083285A (en) | Matrix-structured neural network with learning circuitry | |
US5063601A (en) | Fast-learning neural network system for adaptive pattern recognition apparatus | |
GB2251328A (en) | Multi-layer neural network employing multiplexed output neurons | |
JP3178884B2 (en) | Neural network device | |
US6876989B2 (en) | Back-propagation neural network with enhanced neuron characteristics | |
US5220641A (en) | Multi-layer perceptron circuit device | |
JPH0756877A (en) | Neural network device | |
JPH0264787A (en) | Hierarchy structure neutral net | |
US5625752A (en) | Artificial neural system with binary weighting by equal resistor network | |
US6429699B1 (en) | Generator of neuron transfer function and its derivative | |
FI103304B (en) | Associative neuron | |
JP3224831B2 (en) | Neural network device | |
JPH0492901A (en) | Fuzzy controller by neural network | |
EP0395112B1 (en) | Neural network | |
Miyao et al. | A modified multifrequency oscillation learning method for analog neural networks employing a phase multiplexing technique | |
Lou et al. | A new system identification technique using Kaiman filtering and multilayer neural networks | |
Park | Prediction of MPEG video traffic over ATM networks using dynamic bilinear recurrent neural network | |
Ng et al. | The generalized back-propagation algorithm with convergence analysis | |
Lin et al. | Identification of dynamic systems using recurrent fuzzy neural network | |
Lu et al. | A general-purpose neural network with on-chip BP learning | |
US5367611A (en) | Fuzzy inference system | |
International Neural Network Society (INNS), the IEEE Neural Network Council Cooperating Societies et al. | An approach to generalization problem in back-propagation learning | |
KR0185753B1 (en) | Cyclic neural net and its learning method | |
JPH0830708A (en) | Neural function element | |
Lu et al. | Hardware implementation of an on-chip BP learning neural network with programmable neuron characteristics and learning rate adaptation |