Index
Global Attention
注意する対象を、選択することで、計算コストを削減した Attention.
参考
- Effective Approaches to Attention-based Neural Machine Translation
- [2015]
- Seq2Seq with Attention の論文
- 3 Attention-based Models
- 3.2 Local Attention
- arxiv.org
Web サイト
- アテンション機構(3/4)変形例の検討