ニューラルネットワーク ~単纯パーセプトロンから理解する~
皆さん、こんにちは。尝笔开発グループの苍-辞锄补飞补苍です。
土曜の丑の日にウナギを食べる习惯は、江戸时代の平贺源内が、旬から外れたウナギを売るためのキャッチコピーとして考案したのが始まりです。まさか絶灭危惧种に指定されてもなお食べ続けられるとは、当人たちも想像できなかったでしょうね。
本题です。
昨今の AI 技術の中核をなす机械学习と言えばディープラーニング(深層学習)でしょう。ディープラーニングを理解することは、昨今の AI 技術を理解することに繋がります。ディープラーニングは、ニューラルネットワークを更に発展させた机械学习です。まずは、シンプルな単纯パーセプトロンから勉強したいと思います。
目次
ニューラルネットワーク
概要
ニューラルネットワークは、人間の脳の神経回路を模倣した机械学习モデルで教師あり学習の一種です。主に分類問題に使われるアルゴリズムになります。
人間の脳には約 1000 億個の神経細胞(ニューロン)が存在し、これらが複雑に接続されて情報を伝達?処理しています。各ニューロンは他のニューロンとシナプスと呼ばれる接合部でつながり、電気信号や化学物質を介して情報をやり取りする高度なネットワークを形成します。この仕組みにより、脳は外部からの刺激を受け取り、学習や記憶、判断などを実現しています。この高度なネットワークを模倣したのがニューラルネットワークです。
以下はニューラルネットワークのイメージ図です。左の入力层から値を受け取り、中间层から出力层にかけて计算を行い、出力层にて结果を出力します。

线形変换と非线形変换
ニューロン(ノードとも呼びます)では、线形変换と非线形変换の2段階の処理が行われます。

线形変换とは、入力値(虫i)に対して重み(飞i)を掛けて足し合わせる処理のことを指します。これは、入力ベクトルと重みベクトルの内积にバイアス项(产)を加える操作であり、数式で表すと以下のようになります。この処理だけでは、入力と出力の関係は直线的(线形)であり、复雑なパターンや非线形な関係を学习することができません。
一方、非線形変換は、線形変換の結果に活性化関数(例:ステップ関数、シグモイド関数、ReLU など)を適用することで実現されます。これにより、モデルはより複雑なパターンや非線形な境界を学習できるようになります。ニューラルネットワークが高い表現力を持つのは、この非線形変換を層ごとに繰り返し適用するためです。
単纯パーセプトロン
単纯パーセプトロンは、1958 年に提案された最も基本的な人工ニューラルネットワークのモデルです。複数の入力層と1つの出力層のみの非常に単純な構成となっています。

ステップ関数
単纯パーセプトロンの活性化関数ではステップ関数が使われます。ステップ関数は、入力の合計がある閾値を超えた場合に 1、そうでない場合に 0 を出力するものです。閾値を0とした場合の数式を表すと以下のようになります。

この関数により、単纯パーセプトロンは入力を 2 つのクラスに分類することができます。なお、現代のニューラルネットワークでは、シグモイド関数や ReLU 関数など、より滑らかな活性化関数が使われることが多いです。
计算してみる
実际に计算してみましょう。入力値(虫i)と重み(飞i)は以下の通りです。バイアス(产)は3とします。

线形変换は以下のようになります。
z = 0.4となりました。この结果をステップ関数に渡すと、0を超えているので、1を返却します。よって、结果は1となります。
おわりに
単纯パーセプトロンは単純な線形問題(YesかNoか)ぐらいしか解くことができないため、ニューラルネットワークの研究は下火になってしまいます。ディープラーニングの第一歩として単纯パーセプトロンを見ましたが、これが何故、昨今のすごいAI技術になるのか、まったくイメージが湧きませんね。
ではまた。
