ニューラルネットワークの簡単な理論
ニューラルネットワークは、入力の関数として調整可能な出力モデルです。それはいくつかの層から成ります:
入力データからなる入力層
隠れ層。ニューロンと呼ばれる処理ノードで構成されています。
出力層。1つまたは複数のニューロンで構成され、その出力はネットワーク出力です。
隣接する層のすべてのノードは相互接続されています。これらの接続はシナプスと呼ばれます。すべてのシナプスには割り当てられたスケーリング係数があり、それによってシナプスを通って伝播したデータが乗算されます。これらのスケーリング係数は、重み(w [i] [j] [k])と呼ばれます。フィードフォワードニューラルネットワーク(FFNN)において、データは入力から出力へ伝播される。これは、1つの入力層、1つの出力層、および2つの隠れ層を持つFFNNの例です。
- sigmoid sigm(x)=1/(1+exp(-x)) (#0)
- hyperbolic tangent tanh(x)=(1-exp(-2x))/(1+exp(-2x)) (#1)
- rational function x/(1+|x|) (#2)
これらの機能の活性化閾値はx = 0である。このしきい値は、バイアス入力と呼ばれる各ニューロンの追加入力によってx軸に沿って移動できます。バイアス入力にも重みが割り当てられています。
入力、出力、隠れ層、これらの層内のニューロン、およびシナプス重みの値は、FFNN、すなわちそれが作成する非線形モデルを完全に記述する。重みを見つけるために、ネットワークは訓練されなければなりません。監視されたトレーニング中に、過去の入力のいくつかのセットと対応する予想される出力がネットワークに供給されます。重みは、ネットワーク出力と予想される出力との間の誤差が最小になるように最適化されています。ウェイト最適化の最も簡単な方法は、誤差の逆伝播です。これは勾配降下法です。同封のトレーニング関数Train()は、改良された弾力性のあるバックプロパゲーションプラス(iRProp +)と呼ばれるこの方法の変形を使用します。
FX口座おすすめ
- $30の取引ボーナス
- 最大$5,000の入金ボーナス
- 無限のロイヤリティープログラム
- 特別ボーナス
MT4 インジケーターのインストール方法
ダウンロードするには以下をクリックしてください:
以下にメールアドレスを入力してください。ダウンロードリンクが送信されます。




















