Index
- Index
- 二乗和誤差 / 残差平方和
- 残差平方和 / Residual Sum of Square / RSS
- 二乗和誤差 / Sum of Squared Error / SSE
- 微分・勾配
- 参考
二乗和誤差 / 残差平方和
- 誤差関数 / 損失関数 #まとめ編
いろんな名前、数式で表されるが、差分の二乗.
残差平方和 / Residual Sum of Square / RSS
回帰分析にて、最小二乗方でモデルのパラメータを推定するために使用される.
回帰残差 / Residual とも呼ぶ.
二乗和誤差 / Sum of Squared Error / SSE
二乗誤差ともいう.
機械学習・深層学習に登場する.
予測値 が前にあるのは、微分したときに が無いようにするため ?
Sum of Squared Difference / SSD とも
平均二乗誤差 / Mean Squared Error / MSE
二乗和誤差 と同値 ?
は微分したときに、打ち消し合うためのもの ?
微分・勾配
深層学習では、誤差関数の最小値を求めるために、
誤差逆伝播法にて関数の微分・勾配を求める必要がある.
参考
-
- 13 回帰分析
- 13.2 回帰係数の推定
- 13.2.1 回帰係数の推定 (回帰残差 / Residual)
- 13.2 回帰係数の推定
-
- 13 回帰分析
多変量解析入門
- 2 線形回帰モデル
- 2.1 2変数間の関係を捉える
- 2.1.2 モデルの推定 (残差平方和)
- 2.1 2変数間の関係を捉える
- 5 モデル評価基準
- 5.1 予測2乗誤差
-
- 2 線形回帰モデル
-
- 1 序論
- 1.1 多項式曲線フィッティング (二乗和誤差 / sum of squares error)
-
- 1 序論
ゼロから作るDeepLearning
- 4 ニューラルネットワークの学習
- 4.2 損失関数
- 4.2.1 2乗和誤差 (Mean Squared Error)
- 4.2 損失関数
- 4 ニューラルネットワークの学習
Web サイト
残差平方和(RSS:Residual Sum of Squares)/[損失関数]二乗和誤差(SSE:Sum of Squared Error)とは?
SSE と MSE の違い