Index
GPT
Open AI が考案した、Transformer を利用した、自然言語の生成モデル.
自然言語処理 #まとめ編
- 深層学習を用いたアルゴリズム
- yhayato1320.hatenablog.com
Transformer #まとめ編
GPT-1 / 2018
GPT-2 / 2019
GPT-3 / 2020
GPT-J / 2021
GPT-3 のモデルのひとつ.
Codex / 2021
プログラミング言語のソースコードで、GPT をファインチューニングしたモデル.
事前学習モデルに、GPT-3 を利用.
GPT-3.5 Series / 2021
テキストとコードを組み合わせ学習させたモデル、またはその総称.
code-davinci-002
と呼ばれるモデルが、ベースモデル.
- A Comprehensive Capability Analysis of GPT-3 and GPT-3.5 Series Models
- [2023]
- arxiv.org
Instruct GPT / 2022
Training language models to follow instructions with human feedback
- [2022]
- arxiv.org
Aligning Language Models to Follow Instructions
- 公式ブログ
- openai.com
Chat GPT / 2023
Instruct GPT の兄弟モデル.
- Chat GPT
Contrastive Pre Training / CPT / 2022
- Text and Code Embeddings by Contrastive Pre-Training
- [2022]
- arxiv.org
SpikeGPT / 2023
SNN を利用.
Spiking Neural Network
SpikeGPT: Generative Pre-trained Language Model with Spiking Neural Networks
- [2023]
- arxiv.org
GPT-4
言語と画像のマルチモーダル大規模言語モデル.
HuggingGPT / 2023
HuggingGPT: Solving AI Tasks with ChatGPT and its Friends in HuggingFace
「AI多すぎ、何使えばいいか分からない……」を解決するAI「HuggingGPT」 文章入力だけで、適切な機械学習モデルを自動選択
FrugalGPT / 2023
コスト削減のための改善.
- FrugalGPT
特定のドメインの分野への応用
Finance
BloombergGPT / 2023
金融テキスト(約3630億トークン)と一般テキスト(約3450億トークン)からなるデータセットを作成(合計約7000億トークン)
- BloombergGPT: A Large Language Model for Finance
- [2023]
- arxiv.org
他モーダルへの応用
画像
Image GPT
画像の生成.
- Image GPT
Mario GPT / 2023
- MarioGPT: Open-Ended Text2Level Generation through Large Language Models
- [2023]
- arxiv.org
Seg GPT / 2023
- SegGPT: Segmenting Everything In Context
- [2023]
- arxiv.org
- github.com
- huggingface.co
音響
AudioGPT / 2023
- AudioGPT: Understanding and Generating Speech, Music, Sound, and Talking Head
- [2023]
- arxiv.org
マルチモーダル
TagGPT / 2023
- TagGPT: Large Language Models are Zero-shot Multimodal Taggers
- [2023]
- arxiv.org
Application / Service
GPT SAN
GraphGPT
nanoGPT
picoGPT
Viper GPT
- ViperGPT: Visual Inference via Python Execution for Reasoning
- [2023]
- arxiv.org
- viper.cs.columbia.edu
X-GPT
- X-GPT: Connecting generalist X-Decoder with GPT-3
Cerebras-GPT
chinchillaのスケーリング則を参考.
7つのサイズがある(パラメータ数: 111M、256M、590M、1.3B、2.7B、6.7B、13B).
オープンなデータセットを用いてスケーリング則を導出.
非GPUで実行.
Cerebras Systems Releases Seven New GPT Models Trained on CS-2 Wafer-Scale Systems
Cerebras-GPT: Open Compute-Optimal Language Models Trained on the Cerebras Wafer-Scale Cluster
- [2023]
- arxiv.org
日本語が通る大規模言語モデルCerebras-GPTを動かす
Auto-GPT
Auto-GPT: An Autonomous GPT-4 Experiment
「Auto-GPT」とは何か?次に来る強力なAIツールの基礎知識
Rinna
日本語に特化した13億パラメータのGPT言語モデルを公開
Google Colab で Rinna-3.6B を試す
AIりんな開発元、日本語に特化した36億パラメータのGPT言語モデルを公開
rinnaが日本語特化LLM公開 36億パラメータ
Google Colab で Rinna-3.6B のLoRAファインチューニングを試す
Multi-modal GPT
- Multi-modal GPT
評価方法
GPT SCORE / 2023
- GPTScore: Evaluate as You Desire
- [2023]
- arxiv.org
GPTEval / 2023
- GPTEval: NLG Evaluation using GPT-4 with Better Human Alignment
- [2023]
- arxiv.org
その他
- How Good Are GPT Models at Machine Translation? A Comprehensive Evaluation
- [2023]
- arxiv.org
参考
Web サイト
Model index for researchers
- beta.openai.com
- GPT モデルのアルゴリズムとモデル
What Meta’s Galactica missteps mean for GPT-4 | The AI Beat
動画
- Let's build GPT: from scratch, in code, spelled out.
- www.youtube.com