オムライスの備忘録

数学・統計学・機械学習・プログラミングに関することを記す

【自然言語処理】Pre Trained Model / 事前学習モデル

Pre Trained Model / 事前学習モデル

自然言語処理の(特に DeepLearning を使った) 手法に使われる学習方法.

工夫・テクニック

Hierarchical Domain Adaptation / 2021

ドメインが重なり、粒度の度合いが異なるという仮説に基づいている. テキストドメインを記述するための階層構造を開発し、ドメイン固有の情報と一般ドメイン情報の両方を捉えることを可能にした. 提案された手法は、N個のドメインでPLMを簡単に専門化できると主張し、無関係なドメインからの負の転送を回避する. GPT-2からの表現とガウス混合モデル(GMM)および階層的クラスタリングを使用して、階層構造を教師なしで推論.

  • Efficient Hierarchical Domain Adaptation for Pretrained Language Models

  • AI2 Introduces Efficient Hierarchical Domain Adaptation for Pretrained Language Models

AdaLoRA / 2023

事前学習モデルをダウンストリームタスクに、適用させる工夫.

  • Adaptive Budget Allocation for Parameter-Efficient Fine-Tuning

参考

  • Pre-trained Models for Natural Language Processing: A Survey

Web サイト