オムライスの備忘録

数学・統計学・機械学習・プログラミングに関することを記す

【機械学習】サンプリング法

Index

サンプリング法

モンテカルロ サンプリング / Monte Carlo Sampling

非観測変数の事後分布そのものを直接知りたいこともあるが、 事後分布は、「予測を行うために期待値を評価する目的」である場合を想定する.

ある関数  f(z) の確率分布  p(z) の下での期待値に焦点を置く.

 E[ f ]\ =\ \displaystyle \int\ f(z)\ p(z)\ dz



サンプリング法の背後にある一般的なアイディアは、分布  p(z) から 独立に抽出されたサンプルの集合  \{z_{l}\ |\ z\ =\ 1,\ \cdots,\ L\} を得ること.

Markov Chain Monte Carlo / MCMC

Monte Carlo Method / モンテカルロ法マルコフ連鎖の考えを導入した.

参考

書籍

【機械学習】メトロポリス法

Index

メトロポリス

MCMC 法における考え方の一つ.

確率  P(x) が以下のように表現できるとする.

 P(x)\ =\ \displaystyle \frac{e^{^S(x)}}{Z}


 S は対数尤度、 Z は分配関数と考える.



初期値  x^{(0)} から次の手順で、 x^{(1)},\ x^{(2)},\ \cdots,\ x^{k},\ x^{K+1},\ \cdots を構成する.

  1. 実数  \Delta\ x をランダムに選び、 x^{'}\ =\ x^{(k)}\ +\ \Delta\ x x^{k+1} の候補として提案する.
  2. メトロポリテスト
    •  0 1 の間の一様乱数  r を生成
    •  r\ <\ \displaystyle e^{S\left(x^{(k)}\right)\ -\ S\left(x^{'}\right)} を満たせば、提案を受理し、 x^{(k\ +\ 1)} を更新する.
    • 満たさなければ、提案を棄却し、 x^{(k\ +\ 1)}\ =\ x^{(k)} とする.



参考

書籍

Web サイト

動画

【統計学】マルコフ過程・マルコフ連鎖

Index

マルコフ連鎖

 \{x^{(0)}\}\ \rightarrow\ \{x^{(1)}\}\ \rightarrow\ \cdots\ \rightarrow\ \{x^{(k)}\}\ \rightarrowマルコフ連鎖であるとは、  \{x^{(k)}\} から  \{x^{(k+1)}\} で得られる確率が過去の履歴には依らずに  \{x^{(k)}\} だけで決定すること.

ランダムウォーク / Random Walk(酔歩)

 x^{0}\ =\ 0 から始め、確率を  \displaystyle \frac{1}{2} ずつで  1 を足し引きする.

 x^{k+1}\ =\ x^{k}\ +\ 1 あるいは、 x^{k+1}\ =\ x^{k}\ -\ 1 となる.



実装

動画

youtu.be

参考

書籍

Web サイト

【統計学】確率過程

Index

確率過程

ガウス過程

マルコフ過程マルコフ連鎖

参考

Web サイト

【機械学習】ランジュバン・モンテカルロ法

Index

ランジュバン・モンテカルロ法

ランジュバン・モンテカルロ法は、スコアを使った MCMC 法.

アルゴリズム

はじめに任意の事前分布  \pi (x) からデータを  x_{0}\ \sim\ \pi(x) とサンプリングし、 次に各位置でのスコアに従い推移する.



この際、正規分布からサンプリングされたノイズを少し加えた上で遷移する.

この遷移を  K 回繰り返した結果を、サンプリング結果とする.



サンプリング

  • 入力
    •  \alpha : ステップ幅
    •  K : ステップ回数


  1.  x_{0} を初期化
    •  x_{0}\ \sim\ N(x_{0};\ 0,\ I)
  2. for  k\ =\ 1,\ \cdots,\ K do
    •  u_{k}\ \sim\ N(0,\ I)
    •  x_{k}\ =\ x_{k\ -\ 1}\ +\ \alpha\ \nabla_{x}\ \log\ p(x_{k\ -\ 1}\ +\ \sqrt{2\alpha}\ u_{k}
  3. end for
  4. return  x_{K}



このとき、 \alpha\ \rightarrow\ 0,\ K\ \rightarrow\ \infty x_{K} p(x) からのサンプルに収束する.

参考

書籍

Web サイト

【深層学習】DeBERTa

Index

DeBERTa

DeBERTaV3 / 2021

  • DeBERTaV3: Improving DeBERTa using ELECTRA-Style Pre-Training with Gradient-Disentangled Embedding Sharing

参考

Web サイト