出典 麻生英樹:「多層ニューラルネットワークによる深層表現の学習」、人工知能学会誌、Vo.28,No.4,pp.649-659(2013).
脳は、神経細胞(ニューロン)がシナプスと呼ばれる結合素子を介して結合したネットワークである。このことは、20世紀初めから言われてきた。McCullochとPittsは、多入力1出力のしきい素子として単純にモデル化し、それを多数結合することで任意の論理関数と同じ計算が可能なことを1943年に示した。さらに、後年、連続値のニューロンを用いて、チューリングマシンが模擬できることも示されている(林原,1990)。
ニューラルネットワークの計算モデル化には、いろいろなやり方がある。以下は、ニューロンのモデル化の1例である。
ニューロン:X=(x1,x2,...,xn)を入力とし、yを出力するとする。x0=1とする。
W=(w0,w1,...wn) : 重みベクトル とする。
y=f(w0*x0+w1*x1+...+wn*xn) fの引数はWとXの内積。w0*x0=w0(定数項)に注意。
出力関数fは、一般には非線形関数であり、ニューロンの活性化関数と呼ばれる。特に、f(x)=1 if x>=0 , 0 if x<0 のしきい関数(sign関数、ヘビサイド関数ともいう)のものは、パーセプトロンで用いる。
脳をモデル化したニューラルネットワークにより、通常の固定されたプログラムでは実現しにくいような適応的処理が実現しやすくなる。これがニューラルネットワークの学習能力であり、人工知能と呼ばれる所以である。今後、いろいろなニューラルネットワークや学習方式について述べていく。
2020年4月3日
0コメント