次のステップでは、学習手法を選択します。
一般的な学習手法は、次2つのコンセプトで構成されています。
損失関数
損失関数は、ニューラルネットワークが何を学習するかを規定し、誤差項と正則化項から成ります。
この例では、誤差項には正規化二乗誤差を選びます。
ニューラルネットワークの出力値と実際のターゲットの値との二乗誤差を正規化係数で割ったものです。
正規化二乗誤差が1ならばニューラルネットワークは”平均的に”データを予測しており、0ならば完全にデータを予測しています。
この誤差項には設定するパラメータはありません。
正則化項にはL2正則化を選択します。
この項は変数のパラメータを減らしてニューラルネットワークの複雑性を制御するために用います。
正則化項には弱い重みをつけます。
最適化アルゴリズム
最適化アルゴリズムは、損失関数を最小化するニューラルネットワークのパラメータを探索する役目を担います。
ここでは準ニュートン法を選択します。
学習手法の設定が終わったら、ニューラルネットワークに学習をさせます。
下の図は、学習過程において、エポック数(学習の繰り返し回数)の増加とともに訓練誤差(青)と検証誤差(オレンジ)がどのように減少していくかを示したものです。
最終的な値はそれぞれ、訓練誤差=0.00857NSE、検証誤差=0.00869NSEです。