オムライスの備忘録

数学・統計学・機械学習・プログラミングに関することを記す

【深層学習】BERT #実装編 #04

この記事の読者

深層学習・ディープラーニングの手法の1つである「BERT」について知りたい.


キーワード・知ってると理解がしやすい

  • BERT

yhayato1320.hatenablog.com


yhayato1320.hatenablog.com

Index

環境とライブラリ

#01 と同様の環境

yhayato1320.hatenablog.com

実装

日本語の BERT の実装をしていく中で、
利用可能な事前学習モデルはどれくらいあるのか、気になったので、まとめてみる.

ちなみに、#01 ~ #03 まで利用していたモデルは、東北大学のチームが日本語 Wikipedia で用いて学習したモデル.
cl-tohoku/bert-base-japanese-whole-word-masking


最後に、#03 で実装したビームサーチを複数のモデルで実行して違いを検証してみる.

事前学習モデル

Python のライブラリでは、transformers を利用しているので、
transformers で利用できるモデルを中心にまとめる.

また、ひとまず、トークン化するときの、単位は単語単位で学習したものを調査する.

比較検証

参考