- #まとめ編 一覧
Index
- Index
- 機械学習 / Machine Learning
- 前処理
- 基本手法
- ベイズ識別 / Naive Bayes Classifier
- k 最近傍法 / kNN 法 / k Nearest Neighbor Method
- 判別分析 / Discriminant Analysis
- ロジスティック回帰 / Logistic Regression
- 線形回帰 / Linear Regression
- スパース回帰 / Sparse Regression
- Mixture of Experts / MoE
- パーセプトロン / Perceptron
- Neural Network
- 条件付き確率場 / Conditional Random Field / CRF
- サポートベクターマシン / Support Vector Machine / SVM
- Relative Vector Machine / RVM
- 部分空間法
- クラスタリング
- 決定木 / Decision Tree
- Boosting
- Gaussian Process
- Smoothing Splines
- 反実仮想機械学習 / Counterfactual Machine Learning
- 主成分分析 / Principal Component Analysis / PCA
- 工夫・テクニック
- モデルの評価
- 手法の分類方法
- 各データ分野との関わり
- 参考
機械学習 / Machine Learning
「機械」とは、入力 に対して決まった出力 を返してくれる人工的なシステムのことをさす.
前処理
- 前処理 #まとめ編
基本手法
ベイズ識別 / Naive Bayes Classifier
(ベイズ確率) 事後確率 から 尤度 を計算.
尤度の比較して分類する.
k 最近傍法 / kNN 法 / k Nearest Neighbor Method
認識したい入力データとすべての学習データ (鋳型 / Template) との距離計算を行い、
最も近い学習データが属するクラスに識別する方法.
- k 最近傍法 / kNN 法 / k Nearest Neighbor Method
w kNN / weighted kNN
- Weighted Nearest Neighbor
判別分析 / Discriminant Analysis
複数のクラス (群) があるとき、将来観測されたデータが、
その中ののどのクラス (群) へ属するかを予測することを目的とし、
既にどのクラス (群) に属するのかわかっているデータに基づいて
判別方式を構成する手法を判別分析 / Discriminate Analysisと呼ぶ.
- 判別分析 / Discriminant Analysis
Mixture Discriminant Analysis
- Mixture Discriminant Analysis
ロジスティック回帰 / Logistic Regression
- ロジスティック回帰 / Logistic Regression
線形回帰 / Linear Regression
スパース回帰 / Sparse Regression
- スパース回帰 / Sparse Regression
スパースカーネル回帰 / Sparse Kernelized Regression
Mixture of Experts / MoE
- Mixture of Experts / MoE
パーセプトロン / Perceptron
- パーセプトロン / Perceptron
Neural Network
- Neural Network
Deep Neural Network / DNN
Auto Encoder
深層学習
条件付き確率場 / Conditional Random Field / CRF
- 条件付き確率場 / Conditional Random Field / CRF
サポートベクターマシン / Support Vector Machine / SVM
Relative Vector Machine / RVM
部分空間法
クラスタリング
K-平均法 / K-means
- K-平均法 / K-means
決定木 / Decision Tree
- 決定木 / Decision Tree
Boosting
Gaussian Process
Smoothing Splines
反実仮想機械学習 / Counterfactual Machine Learning
- 反実仮想機械学習 / Counterfactual Machine Learning
主成分分析 / Principal Component Analysis / PCA
- 主成分分析 / Principal Component Analysis / PCA
工夫・テクニック
情報量
識別関数
汎化能力
学習とは、学習データに対する識別関数の出力値と教師データとの誤差が最小になるように、
識別関数のパラメータを調整することである.
しかし、学習で得られた識別関数が学習データに含まれていない 未知のデータに対してうまくはたらくという保証はない.
- パラメータの意味が人間にとってわかりやすく、変更対応が迅速にできる
- 対象のデータの内容がある程度分かっていて、過学習すればするほど精度があがることが期待できる
- また、未知データがある程度予測できる.
そこで、学習データから取り除いておいたテストデータを用いて性能評価を行い、
未知データに対する動作をテストデータに対する誤り確率という形で予測することが行われている.
未知のデータに対する識別能力を汎化能力といい、また、その誤差を汎化誤差という.
- データ分割 #まとめ編
アンサブル学習 / Ensemble Learning
- アンサブル学習 / Ensemble Learning
パラメータ推定法
- パラメータ推定法
ハイパーパラメータチューニング / Hyper Parameter Turning
- ハイパーパラメータチューニング / Hyper Parameter Turning
次元削減 / Dimension Reduction / DR
Entropic Wasserstein Component Analysis
- Entropic Wasserstein Component Analysis
- [2023]
- arxiv.org
近似推論法
サンプリング法
- サンプリング法
データ拡張 / Data Augmentation
- データ拡張 / Data Augmentation
Federated Learning / 連合学習
- Federated Learning / 連合学習
Data-Centric AI / DCAI
- Data-Centric AI / DCAI
モデルの評価
手法の分類方法
(8.6.2 Dealing with missing data)
関数モデル
基底関数モデル / Basis Function Models
- 線形基底関数モデル / Liner Basis Function Models
- 適応基底関数モデル / Adaptive Basis Function Models (ABM)
- yhayato1320.hatenablog.com
一般加法モデル / Generalized Additive Models (GAM)
Classification / Regression
Generative / Discriminative
パラメトリック / ノンパラメトリック
教師あり学習 / 教師なし学習 / 強化学習
XAI
説明可能な AI.
各データ分野との関わり
自然言語処理
- 自然言語処理
- 機械学習手法 #まとめ編
- yhayato1320.hatenablog.com
時系列解析
- 時系列解析
- 機械学習手法 #まとめ編
- yhayato1320.hatenablog.com
参考
書籍
はじめてのパターン認識
-
- 2 確率分布
Web サイト
機械学習帳
Introduction to Algorithms
MLOps Zoomcamp
Introduction to Machine Learning
Mathematics For Computer Science
Practical Deep Learning