JA EN

活性化関数

読み: かっせいかかんすう

ニューラルネットワークの各ニューロンに非線形性を導入する関数。線形変換の繰り返しでは表現できない複雑なパターンの学習を可能にする。

活性化関数 (Activation Function) は、ニューロンの線形出力 z = Wx + b に適用される非線形関数である。活性化関数がなければ多層ネットワークは単一の線形変換と等価になり、XOR のような非線形問題を解けない。適切な活性化関数の選択はモデルの学習速度と最終精度に直結する。

画像認識の分野では ReLU (Rectified Linear Unit) が事実上の標準である。f(x) = max(0, x) という単純な計算で、正の入力をそのまま通し負の入力を 0 にする。シグモイドや tanh と比較して勾配消失が起きにくく、計算コストも低い。

超解像や画像生成では出力層に tanh (-1 から 1) や sigmoid (0 から 1) を使い、ピクセル値の範囲を制約する。中間層には ReLU 系、出力層にはタスクに応じた活性化関数を選択するのが基本方針である。

関連用語

関連記事