オムライスの備忘録

数学・統計学・機械学習・プログラミングに関することを記す

【深層学習】活性化関数 / Activation Function

yhayato1320.hatenablog.com

Index

活性化関数 / Activation Function とは

入力信号 (の総和) を出力信号に変換させる関数.
入力信号 (の総和) をどのように活性化するか (どのように発火するか) ということを決定する.

深層学習 / DeepLearning での役割

  • 数値の圧縮
  • 特徴量の選択 / 増加

様々な関数

ステップ関数 / 階段関数

パーセプトロンに利用される.


 f(x)\ =\ 
\left\{
\begin{array}{ll}
1 & x>0 \\
0 & x \leq 0
\end{array}
\right.

Sigmoid / シグモイド関数

ニューラルネットワークの活性化関数として利用されている.
ステップ関数との違いといえば、まずその滑らかさ. 連続的に変化している.


ニューラルネットワークでは、活性化関数に非線形関数を用いる必要がある. その理由として、ニューラルネットワークの変換は線形変換なため、非線形関数を挟まないと、 層を増やすことの意味がなくなってしまう.


 f(x)\ =\ \displaystyle \frac{1}{1+\exp(-x)}

Tanh 関数

ReLU 関数 / 2010

ReLU は、Rectified Linear Unit の略称.

シグモイド関数は、ニューラルネットワークの歴史において、古くから利用されている.

しかし、それに ReLU が置き換わるように利用されていた.

 f(x)\ =\ 
\left\{
\begin{array}{ll}
x & x>0 \\
0 & x \leq 0
\end{array}
\right.

GELU 関数

  • 調査中

参考

Web サイト