Index
BERT / 2018
Transformer をベースとしている.
- Transformer まとめ編
アルゴリズム編
実装編
BERT の研究
RoBERTa / 2019
Meta(旧Facebook)がハイパーパラメーターの調整や学習用データ量の増加によって、BERTの精度を大幅に上回る RoBERTa を発表.
Robustly Optimized BERT Approach
- RoBERTa
ALBERT / 2019
GoogleがBERTを軽量化した ALBERT を発表.
- ALBERT
DistilBERT / 2019
- DistilBERT, a distilled version of BERT: smaller, faster, cheaper and lighter
- [2019 Hugging Face]
- Ditillation(蒸留)の手法を用いてモデルを軽量化
- arxiv.org
FlauBERT / 2019
- FlauBERT: Unsupervised Language Model Pre-training for French
- [2019]
- arxiv.org
Sentence BERT / SBERT / 2019
- Sentence BERT / SBERT
- [2019]
- yhayato1320.hatenablog.com
GAN-BERT / 2020
- GAN-BERT: Generative Adversarial Learning for Robust Text Classification with a Bunch of Labeled Examples
- [2020 ACL]
- aclanthology.org
DeBERTa / 2020
- DeBERTa
学習するドメインに対する研究
- BERT #まとめ編
他データ分野への応用
HuBERT / 2021
HuBERT: Self-Supervised Speech Representation Learning by Masked Prediction of Hidden Units
- [2021]
- arxiv.org
HuBERTで音声言語モデルの性能を改善
rinna社が日本語の音声に特化した事前学習モデル HuBERT を、商用利用可能なApache-2.0 ライセンスで公開.
約19,000時間の日本語音声コーパスReazonSpeechを用いて学習.
約19,000時間の日本語音声コーパスReazonSpeechを用いて学習.
モデル
- Pretrained Japanese BERT models
サービス・アプリケーション
- LINE DistilBERT