JPH0756877A - ニューラルネットワーク装置 - Google Patents

ニューラルネットワーク装置

Info

Publication number
JPH0756877A
JPH0756877A JP19869993A JP19869993A JPH0756877A JP H0756877 A JPH0756877 A JP H0756877A JP 19869993 A JP19869993 A JP 19869993A JP 19869993 A JP19869993 A JP 19869993A JP H0756877 A JPH0756877 A JP H0756877A
Authority
JP
Japan
Prior art keywords
signal
output
neuron
neural network
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP19869993A
Other languages
English (en)
Inventor
Tomohisa Kimura
智寿 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP19869993A priority Critical patent/JPH0756877A/ja
Publication of JPH0756877A publication Critical patent/JPH0756877A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Feedback Control In General (AREA)

Abstract

(57)【要約】 【目的】本発明は、有効な学習性能を持つニューラルネ
ットワーク装置を実現することを目的とする。 【構成】複数のニューロンを備えた第1、第2のニュー
ロン層と、その第1、第2のニューロン層におけるニュ
ーロン同士を結合するシナプスからなるシナプス層とか
らなり、外部から与えた教師信号をもとに算出される誤
差信号に基づき逐次更新される各シナプスの結合の重み
を用いて、第1のニューロン層の出力信号に演算を施
し、第2のニューロン層に前記演算結果信号を転送する
ニューラルネットワーク装置において、学習が進行しな
くなった場合には、第2のニューロン層に転送される前
記演算結果信号を外部から与えた制御信号に基づき変更
する変更手段を有することを特徴とするニューラルネッ
トワーク装置。 【効果】本発明によれば、学習に必要な逆伝搬信号を理
想値に近付けることができるために、高い学習性能を持
ったニューラルネットワーク装置の実現に有効である。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、ニューラルネットワー
ク装置に関する。
【0002】
【従来の技術】認識や制御等の分野に従来の逐次処理に
代わり並列処理を行うニューラルネットワークの導入が
期待されているが、高速な学習機能を備えたハードウェ
アの実現がその導入のネックとなっている。現在、国内
外でニューラルネットワークのハードウェア化の研究が
活発に行われている(小池誠彦:「ニューラルネットワ
ークのハードウェア化に向けて」電子情報通信学会研究
報告 ICD92-12, Vol.92,No.74 (1992) )。
【0003】ニューラルネットワークはその構造や学習
則の違いにより分類される。一般的には多層構造のネッ
トワークをバックプロパゲーション法(D.L.Rumelhart,
J.L.McClelland and PDP Research Group:"Parallel Di
stributed Processing Vol.1" chapter 8, The MIT Pre
ss (1986))で学習させているものが多い。
【0004】ハードウェアでニューラルネットワークを
実現させようとした場合、様々なアプローチがとられて
いるが、装置の小型化、処理の並列化のためには信号を
電流値、電圧値、光の強度などで扱うアナログ方式のニ
ューラルネットワークが有望視されている。
【0005】ところがこれらのものは装置のダイナミッ
クレンジに制限がある。例えば、電子回路で作られたア
ナログ乗算器を考えると、入力がある範囲を越えると線
形性が悪くなるために、ある程度の線形性が保証される
動作範囲は制限される(P.R.Gray and R.G.Meyer:"Analy
sis and Design of Analog Integrated Circuits",chap
ter 10, John Wiley & Sons,(1984)) 。乗算器の非線形
性の影響による理想的な演算結果からの差は乗算結果に
乗った誤差と考えられる。ニューラルネットワークにお
いて乗算器の誤差は学習の収束を悪化させる主要な原因
になる(T.Morishita, Y.Tamura and T.Otuki:"A BiCMOS
Analog Neural Network with Dynamically Updated We
ights",1990 IEEE International Solid-State Circuit
s Conference Digest of Technical Papers, Vol.33, p
p.142-143,(1990)) 。従ってこれを避けるために、信号
のレベルを装置のダイナミックレンジに合わせることが
必要となる。しかしながら、このために信号の絶対値が
他の変数の大きさと相対的な違いが生じることで理想的
な演算結果からずれるという新たな問題に直面する。こ
の問題は学習に必要な逆伝搬信号において重大である。
【0006】このように、従来のアナログのニューラル
ネットワーク装置においては、装置の入力、出力のダイ
ナミックレンジが固定的であったため、入力、出力の信
号の大きさにより学習が進行しなくなる場合があり、十
分な学習性能を持ったアナログニューラルネットワーク
装置の実現の障害となっていた。
【0007】
【発明が解決しようとする課題】このように、従来のア
ナログニューラルネットワーク装置では、装置の入力、
出力のダイナミックレンジに制限があり、学習に必要な
逆伝搬信号が理想値からずれるために、十分な学習性能
の実現が非常に困難であった。
【0008】本発明は、前向き信号及び逆向き信号の出
力振幅を可変としたことにより、学習に必要な逆伝搬信
号の値を理想値に近付けることで有効な学習を可能とし
たニューラルネットワーク装置を実現することを目的と
する。
【0009】
【課題を解決するための手段】上記目的を達成するため
に、本出願に含まれる発明のニューラルネットワーク装
置は、複数のニューロンを備えた第1、第2のニューロ
ン層と、その第1、第2のニューロン層におけるニュー
ロン同士を結合するシナプスからなるシナプス層とから
なり、外部から与えた教師信号をもとに算出される誤差
信号に基づき逐次更新される各シナプスの結合の重みを
用いて、第1のニューロン層の出力信号に演算を施し、
第2のニューロン層に前記演算結果信号を転送するニュ
ーラルネットワーク装置において、学習が進行しなくな
った場合には、第2のニューロン層に転送される前記演
算結果信号を外部から与えた制御信号に基づき変更する
変更手段を有することを特徴とする。
【0010】また入力層から出力層への前向きの信号経
路と、外部から与えた教師信号をもとに算出される誤差
信号を出力層から入力層側へ伝える逆向きの信号経路を
もち、前段のニューロンの前向き信号の出力と後段のニ
ューロンの逆向き信号の出力とでシナプス結合荷重の更
新量を求めてシナプス結合荷重値を変更する機能を有す
る多層構造型ニューラルネットワークにおいて、前段の
ニューロンの出力に重みを掛け算した結果の前向き信号
の出力と後段のニューロンからの誤差信号に重みを掛け
算した結果の逆向き信号の出力の出力値を外部から与え
た制御信号によって可変とする可変手段を有することを
特徴とする。
【0011】また望ましくは、前記可変手段は、前段の
ニューロンの出力に重みを掛け算した結果の前向き信号
の出力と後段のニューロンからの誤差信号に重みを掛け
算した結果の逆向き信号の出力の出力値を外部から与え
た制御信号によって層毎に独立に可変とする手段で構成
したことを特徴とする。
【0012】また望ましくは、前記可変手段は、前段の
ニューロンの出力に重みを掛け算した結果の前向き信号
の出力と後段のニューロンからの誤差信号に重みを掛け
算した結果の逆向き信号の出力の出力値を外部から与え
た制御信号によって前向き信号と逆伝搬信号とをそれぞ
れ独立に可変とする手段で構成したことを特徴とする。
【0013】
【作用】本発明のニューラルネットワーク装置によれ
ば、学習の進行状況等に応じて、前向き信号及び逆向き
信号の出力振幅を調節できる機能を備えているために、
学習に必要な逆伝搬信号の値を装置の動作範囲にあった
理想値に近付けることができ、十分な学習性能を持った
ニューラルネットワーク装置の実現に有効である。
【0014】
【実施例】以下、本発明の実施例を図面を参照しつつ説
明する。図1は本発明のニューラルネットワーク装置の
シナプス部の基本構成を示す図である。ここでシナプス
部とは、図2のネットワークにおいて一方のニューロン
と他方のニューロンとを結合する部分8をいう。
【0015】シナプス部1は4つの信号ノード2A、2
B、2C、2Dと、シナプス結合値の記憶部3と、前向
き信号とシナプス結合値との乗算部4Aと、逆伝搬信号
とシナプス結合値との乗算部4Bと、学習制御部5と、
出力信号調整部6A、6Bとから構成される。
【0016】学習は教師信号に対して現実の出力信号を
近づけるように進行するものであり、ノード2Aからの
入力とノード2Cからの逆伝搬信号(誤差信号)をもと
に、学習制御部で結合の重みを計算し、そのシナプスに
おける結合の重み(結合値)の値を更新して結合値記憶
部3に記憶する。
【0017】ここで前向き信号はノード2Aから入力
し、乗算器4Aで重みを掛けられ、調整部6Aを通りノ
ード2Bより出力される。調整部6Aでは学習の進行具
合に応じて信号振幅の大きさを変更する。例えば乗算部
4Aの出力が微少で、ダイナミックレンジを有効に活用
していないために学習が進行しない場合には、振幅を大
きくするよう調整部6Aが動作する。逆に乗算部4Aの
出力が過大でダイナミックレンジを越えているために学
習が進行しない場合には、振幅を小さくするよう調整部
6Aが動作する。
【0018】逆伝搬信号はノード2Cから入力し、乗算
器4Bで重みを掛けられ調整部6Bを通りノード2Dよ
り出力される。この場合にも、前向き信号の出力におけ
る調整部と同様の動作を行ない、調整部6Bでは乗算器
の出力に対して外部からの制御信号に応じてその振幅を
調節するという演算をおこなう。
【0019】このようにすれば、前向き伝搬信号、逆伝
搬信号の信号振幅が装置のダイナミックレンジに制限さ
れることなく、有効に学習を行なうことが可能となる。
バックプロパゲーション法に代表される誤差を最急降下
法で減少させていく学習法では、出力層側から入力層側
へ逆伝搬する誤差信号をもとにシナプス結合の重みを更
新する。
【0020】図2で示す3層構造のネットワークで、入
力層ニューロンiと中間層ニューロンjとをつなぐシナ
プスWijを学習させるために逆伝搬してくる誤差信号E
j は Ej =Fj'×Σk Fk'×(Tk −Ok )×Wjk …(1) と表される。ここで、各々の記号は Fj':中間層ニューロンjの微分値 Fk':出力層ニューロンkの微分値 Tk :出力層ニューロンkへの教師信号 Ok :出力層ニューロンkの出力値 Wjk:中間層ニューロンjと出力層ニューロンkとの間
のシナプス結合値 を表す。
【0021】実際のハードウェアでは、ダイナミックレ
ンジの制限等により、次に示すような非理想的な演算が
行われている。 f' =dF' …(2) Σ' =σΣ …(3) (X−Y)' =m(X−Y) …(4) これらの式において、左辺は現実の装置において演算さ
れる値であり、右辺は理論的に求められる値である。ま
た(2)は微分演算、(3)は加算演算、(4)は減算
演算を表す。これらを使うと(1)式は次のように書き
換えられる。
【0022】 Ej =fj'×Σ'kfk'×(Tk −Ok )' ×Wjk =dj Fj'×σΣk dk Fk'×m(Tk −Ok )×Wjk =dj σdk mFj'×Σk Fk'×(Tk −Ok )×Wjk …(5) この中でd、mはハードウェア設計時に固定されるが、
σについてはバイアス値、ゲイン等の調整により容易に
調節できる。
【0023】特に(3)式は Σ' =σΣ=Σσ' …(6) (σ' :装置に入力する複数信号のそれぞれの誤差信
号)と変形することができる。
【0024】したがってσ' の値を変えることにより、
(5)式の係数を調節することができる。これは例えば
この係数を1にして理想的な演算に近づけたり、この係
数を大きくして逆伝搬信号がノイズに埋もれないように
したりすることにより有効な学習が可能となる。更に
は、σの値を変えることにより、バックプロパゲーショ
ン法で使われている学習係数ηを任意の大きさで乗算操
作なしに導入することができ、σの値とともにηの値も
層毎に変えることができる。また、前向き信号に関して
は、σの値を変えることにより次段のニューロンの非線
形関数の傾きを変えられるという働きを有する。また、
σの値を変えることは信号を装置のダイナミックレンジ
に合わせられるという作用があるために、装置の大幅な
変更なしにネットワーク規模を変えられるという効果も
持つ。
【0025】以上の実施例では、学習の進行状況に応じ
てシナプス内の調整部を制御する構成例について説明し
たが、以下のような変形例も可能である。図3に本発明
の第二の構成例を示す。これは前述の実施例で説明した
ニューラルネットワーク装置の基本構成に加えて、学習
制御部5または乗算部4Aに入力する前向き信号の振幅
を調整する調整部6Cや、学習制御部5または乗算部4
Bに入力する逆伝搬信号の振幅を調整する調整部6D、
結合値記憶部の出力信号の振幅を制御する制御部6E、
6Fを備えたことを特徴とする。これにより乗算部に入
力される結合値の信号振幅を制御して、装置の動作範囲
に適合した動作を保障することができる。
【0026】例えばハード設計時に与えられる信号のダ
イナミックレンジと伝搬する信号振幅とを比較して、信
号振幅がダイナミックレンジを越えてしまう場合やノイ
ズレベルに埋もれてしまう場合に調整部を制御すること
も可能である。
【0027】また学習制御部5によりシナプスでの結合
値を計算するが、この結合値が最大値に近い場合には学
習が進行しても結合値が飽和してしまい、見かけ上学習
が進行しなくなる場合がある。このような場合に調整部
を制御して結合値の信号を増幅することにより、見かけ
上の結合値を増加させることが可能となり、学習を更に
進行させることが可能となる。
【0028】またニューラルネットワーク装置によって
は、シナプスの結合値を離散的に設ける構成も可能であ
るが、このときに結合値が離散的に変化するため離散点
の中間の値をとることができず、学習の進行が不安定に
なる場合がある。このような場合にも、各調整部をわず
かに変化させることにより、シナプスの前向き出力、逆
伝搬出力を微調整することが可能となり、結合値の分解
能を見かけ上向上させることができる。
【0029】
【発明の効果】以上説明したように本発明によれば、装
置のダイナミックレンジの制限に適応して、十分な学習
性能を持ったニューラルネットワーク装置を実現するこ
とに有効である。
【図面の簡単な説明】
【図1】 本発明の基本的な構成例を示す図。
【図2】 学習則を説明するための図。
【図3】 本発明の他の構成例を示す図。
【符号の説明】
1…シナプス部 2…信号ノード 3…結合加重記憶部 4…乗算部 5…学習制御部 6…出力値調整部 7…ニューロン 8…シナプス

Claims (4)

    【特許請求の範囲】
  1. 【請求項1】複数のニューロンを備えた第1、第2のニ
    ューロン層と、その第1、第2のニューロン層における
    ニューロン同士を結合するシナプスからなるシナプス層
    とからなり、外部から与えた教師信号をもとに算出され
    る誤差信号に基づき逐次更新される各シナプスの結合の
    重みを用いて、第1のニューロン層の出力信号に演算を
    施し、第2のニューロン層に前記演算結果信号を転送す
    るニューラルネットワーク装置において、学習が進行し
    なくなった場合には、第2のニューロン層に転送される
    前記演算結果信号を外部から与えた制御信号に基づき変
    更する変更手段を有することを特徴とするニューラルネ
    ットワーク装置。
  2. 【請求項2】入力層から出力層への前向きの信号経路
    と、外部から与えた教師信号をもとに算出される誤差信
    号を出力層から入力層側へ伝える逆向きの信号経路をも
    ち、前段のニューロンの前向き信号の出力と後段のニュ
    ーロンの逆向き信号の出力とでシナプス結合荷重の更新
    量を求めてシナプス結合荷重値を変更する機能を有する
    多層構造型ニューラルネットワークにおいて、前段のニ
    ューロンの出力に重みを掛け算した結果の前向き信号の
    出力と後段のニューロンからの誤差信号に重みを掛け算
    した結果の逆向き信号の出力の出力値を外部から与えた
    制御信号によって可変とする可変手段を有することを特
    徴とするニューラルネットワーク装置。
  3. 【請求項3】前記可変手段は、前段のニューロンの出力
    に重みを掛け算した結果の前向き信号の出力と後段のニ
    ューロンからの誤差信号に重みを掛け算した結果の逆向
    き信号の出力の出力値を外部から与えた制御信号によっ
    て層毎に独立に可変とする手段で構成したことを特徴と
    する請求項2記載のニューラルネットワーク装置。
  4. 【請求項4】前記可変手段は、前段のニューロンの出力
    に重みを掛け算した結果の前向き信号の出力と後段のニ
    ューロンからの誤差信号に重みを掛け算した結果の逆向
    き信号の出力の出力値を外部から与えた制御信号によっ
    て前向き信号と逆伝搬信号とをそれぞれ独立に可変とす
    る手段で構成したことを特徴とする請求項2記載のニュ
    ーラルネットワーク装置。
JP19869993A 1993-08-11 1993-08-11 ニューラルネットワーク装置 Pending JPH0756877A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP19869993A JPH0756877A (ja) 1993-08-11 1993-08-11 ニューラルネットワーク装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP19869993A JPH0756877A (ja) 1993-08-11 1993-08-11 ニューラルネットワーク装置

Publications (1)

Publication Number Publication Date
JPH0756877A true JPH0756877A (ja) 1995-03-03

Family

ID=16395562

Family Applications (1)

Application Number Title Priority Date Filing Date
JP19869993A Pending JPH0756877A (ja) 1993-08-11 1993-08-11 ニューラルネットワーク装置

Country Status (1)

Country Link
JP (1) JPH0756877A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017102904A (ja) * 2015-10-23 2017-06-08 株式会社半導体エネルギー研究所 半導体装置および電子機器
JP2020197906A (ja) * 2019-06-03 2020-12-10 株式会社東芝 信号処理装置、信号処理システム、信号処理方法、およびプログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017102904A (ja) * 2015-10-23 2017-06-08 株式会社半導体エネルギー研究所 半導体装置および電子機器
JP2021108144A (ja) * 2015-10-23 2021-07-29 株式会社半導体エネルギー研究所 半導体装置及び電子機器
JP2020197906A (ja) * 2019-06-03 2020-12-10 株式会社東芝 信号処理装置、信号処理システム、信号処理方法、およびプログラム

Similar Documents

Publication Publication Date Title
US5083285A (en) Matrix-structured neural network with learning circuitry
US5063601A (en) Fast-learning neural network system for adaptive pattern recognition apparatus
GB2251328A (en) Multi-layer neural network employing multiplexed output neurons
JP3178884B2 (ja) ニューラルネットワーク装置
US6876989B2 (en) Back-propagation neural network with enhanced neuron characteristics
US5220641A (en) Multi-layer perceptron circuit device
JPH0756877A (ja) ニューラルネットワーク装置
JPH0264787A (ja) 階層構造ニューラルネット
Wei et al. Anti-saturation fault-tolerant control for Markov jump nonlinear systems with unknown control coefficients and unmodeled dynamics
US5625752A (en) Artificial neural system with binary weighting by equal resistor network
US6429699B1 (en) Generator of neuron transfer function and its derivative
FI103304B (fi) Assosiatiivinen neuroni
JP3224831B2 (ja) ニューラルネットワーク装置
JPH0492901A (ja) ニューラルネットワークによるファジイ制御器
EP0395112B1 (en) Neural network
Miyao et al. A modified multifrequency oscillation learning method for analog neural networks employing a phase multiplexing technique
JP3262340B2 (ja) 情報処理装置
Lou et al. A new system identification technique using Kaiman filtering and multilayer neural networks
Ng et al. The generalized back-propagation algorithm with convergence analysis
Lin et al. Identification of dynamic systems using recurrent fuzzy neural network
Lu et al. A general-purpose neural network with on-chip BP learning
US5367611A (en) Fuzzy inference system
International Neural Network Society (INNS), the IEEE Neural Network Council Cooperating Societies et al. An approach to generalization problem in back-propagation learning
Piazza et al. Neural network complexity reduction using adaptive polynomial activation functions
KR0185753B1 (ko) 순환 신경회로망과 그 학습방법