Index
活性化関数 / Activation Function とは
入力信号 (の総和) を出力信号に変換させる関数.
入力信号 (の総和) をどのように活性化するか (どのように発火するか) ということを決定する.
深層学習 / DeepLearning での役割
- 数値の圧縮
- 特徴量の選択 / 増加
様々な関数
ステップ関数 / 階段関数
パーセプトロンに利用される.
|
Sigmoid / シグモイド関数
ニューラルネットワークの活性化関数として利用されている.
ステップ関数との違いといえば、まずその滑らかさ. 連続的に変化している.
ニューラルネットワークでは、活性化関数に非線形関数を用いる必要がある.
その理由として、ニューラルネットワークの変換は線形変換なため、非線形関数を挟まないと、
層を増やすことの意味がなくなってしまう.
|
Tanh 関数
ReLU 関数 / 2010
ReLU は、Rectified Linear Unit の略称.
シグモイド関数は、ニューラルネットワークの歴史において、古くから利用されている.
しかし、それに ReLU が置き換わるように利用されていた.
|
- Rectified Linear Units Improve Restricted Boltzmann Machines
GELU 関数
- 調査中
参考
ゼロから作る Deep Learning
Activation Functions: Comparison of Trends in Practice and Research for Deep Learning
- [2018]
- 活性化関数についての論文
- 2 Activation Function
- 3 Summary Of Activation Functions
- arxiv.org
Activation Functions in Artificial Neural Networks: A Systematic Overview
- [2021]
- arxiv.org
Web サイト
GeoGebra
- 関数を図示化するアプリケーション
- www.geogebra.org
- Neural Network Activation Functions