- #まとめ編 一覧
Index
- Index
- 基本アーキテクチャ
- 応用アーキテクチャ
- 工夫・テクニック
- Zero / One / Few Shot Learning
- 活性化関数 / Activation Function
- 正規化 / Normalization
- Neural Architecture Search / NAS
- Pre Training / 事前学習
- Weight Initialization
- 表現学習 / Representation Learning
- 誤差関数 / Loss Function
- 正則化 / Regularization
- Metric Learning / Distance Learning
- 勾配の計算 / Gradient
- 最適化 / Optimization
- ハイパーパラメータチューニング / Hyper Parameter Turning
- Neural Functional Networks / NFN / 2023
- 応用的な研究
- Meta Learning
- Knowledge Distillation
- Model Compression / モデルの圧縮・軽量化
- Data Pruning
- Grokking
- Scaling Law / スケーリング則
- 平坦解 / Flat Minima
- モデルへの攻撃 / Attack
- モデルの性能評価
- モデルの編集
- Neural Field
- Transfer Learning / 転移学習
- Small Data
- Calibration
- Probabilistic Embedding
- 世界モデル
- Uncertainty Estimation
- Geometric Deep Learning
- モデル形式
- タスク
- データ分野
- サービス
- 参考
基本アーキテクチャ
ニューラルネットワーク / Neural Network / NN
事前に基底関数の数を固定し、データに適応させるアルゴリズム.
つまり、基底関数に対して、パラメトリック形を用いて、そのパラメータを訓練中に適応させるアルゴリズム.
ニューラルネットワークを (パーセプトロンを、1 層のニューラルネットとして)、多層パーセプトロン (MLP) と
考える場合もあるが、非連続な非線形性を持つ MLP と比べ、NN は連続的な非線形性を持つ.
Deep Neural Network / DNN
ニューラルネットワークを深く、多層化したネットワークを
Deep Neural Network / DNN と呼んでいる.
- Deep Neural Network / DNN
Deep Neural Network には、いくつかのネットワークアーキテクチャがあり、
単純な基本的なネットワークとして、順伝播ネットワーク / フィードフォワードネットワークがある.
- フィードフォワードネットワーク / Feed Forward Network / FFN
応用アーキテクチャ
Skip Layer Connection
Skip Layer Connection を追加したネットワークアーキテクチャ.
- Skip Layer Connection
CNN
- Convolutional Neural Network / CNN
- FNN に畳み込み演算を加えた
- yhayato1320.hatenablog.com
RNN
- Recurrent Neural Network / RNN
- FNN に再帰的な仕組みを追加
- yhayato1320.hatenablog.com
Attention
- Attention
Transformer
- Transformer
BERT
GPT
GNN
TabNet
- TabNet
DualNet / 2017
- DualNet: Learn Complementary Features for Image Recognition
Bayesian Neural Networks / BNN / 2020
- Bayesian Neural Networks: An Introduction and Survey
- [2020]
- arxiv.org
Epistemic Neural Networks / ENN / 2021
- Epistemic Neural Networks
- [2021]
- arxiv.org
Lambda Net / 2021
LambdaNetworks: Modeling Long-Range Interactions Without Attention
- [2021]
- arxiv.org
【Lambda Networks】Attentionは要らない!? これが新世代のラムダネットワークだ!
projected Unitary Neural Networks / proj UNN / 2022
ユニタリー行列を用いて深層ニューラルネットワークを効率的に訓練することを目的としている. この方法は、消失勾配や爆発勾配といった、従来のリカレントニューラルネットワーク(RNN)における不安定性の問題を解決しようとしている. projUNNは、勾配ベースの最適化を通じて行列を直接更新し、その後、最も近いユニタリー行列に投影するか、勾配方向に転送することで機能する.
projUNN: efficient method for training deep networks with unitary matrices
- [2022]
- arxiv.org
Researchers, Including Yann Lecun, Propose ‘projUNN’: An Efficient Method For Training Deep Neural Networks With Unitary Matrices
Spiking Neural Network / SNN
- Spiking Neural Network
KAN
- A Simplified Explanation Of The New Kolmogorov-Arnold Network (KAN) from MIT
工夫・テクニック
Zero / One / Few Shot Learning
- Zero / One / Few Shot Learning
活性化関数 / Activation Function
- 活性化関数 / Activation Function
正規化 / Normalization
- Normalization
Neural Architecture Search / NAS
- Neural Architecture Search / NAS
Pre Training / 事前学習
- Pre Training / Fine Turning
基盤モデル / Foundation Model
- 基盤モデル / Foundation Model
Weight Initialization
- Weight Initialization
表現学習 / Representation Learning
- 表現学習 / Representation Learning
誤差関数 / Loss Function
- 誤差関数 / Loss Function
正則化 / Regularization
- 正則化 / Regularization
Metric Learning / Distance Learning
- Metric Learning / Distance Learning
- Deep Metric Learning
- yhayato1320.hatenablog.com
勾配の計算 / Gradient
どのように勾配を計算するか.
誤差逆伝播法 / Error Backpropagation
Forward Gradient / 2022
- Gradients without Backpropagation
- [2022]
- arxiv.org
Forward-Forward / 2022
従来のディープラーニングの主流である誤差逆伝播法 (Backpropagation) に代わる新しい学習手法.
この手法は、生物学的な脳の仕組みにより近いモデルを目指しており、ニューラルネットワークに正のデータと負のデータをそれぞれ入力する2回の順方向パスのみで重みを更新する.
各層が独自の評価関数 (goodness) を持つため、情報の逆流や微分値の保存が不要となり、学習プロセスの簡略化が図られている.
The Forward-Forward Algorithm: Some Preliminary Investigations
https://neurips.cc/virtual/2022/invited-talk/55869
- keras での実装について
- keras での実装について
バックプロパゲーションを発明した本人が、それを超える学習法を提案しています。
— Shuhei Shimmyo | マルチモーダルRAG開発 (@ShimmyoLab) December 27, 2025
Geoffrey Hintonが2022年に発表した「Forward-Forward… pic.twitter.com/jbSrPDUjtw
最適化 / Optimization
勾配情報をどのように利用するか.
- Optimization
ハイパーパラメータチューニング / Hyper Parameter Turning
- ハイパーパラメータチューニング / Hyper Parameter Turning
Neural Functional Networks / NFN / 2023
- Permutation Equivariant Neural Functionals
- [2023]
- arxiv.org
- github.com
応用的な研究
Meta Learning
- Meta Learning
Knowledge Distillation
Data Distillation
- Data Distillation
Model Compression / モデルの圧縮・軽量化
- Model Compression
Data Pruning
- Data Pruning
Grokking
- Grokking
Scaling Law / スケーリング則
- Scaling Law / スケーリング則
平坦解 / Flat Minima
- 平坦解 / Flat Minima
モデルへの攻撃 / Attack
- 攻撃 / Attack
モデルの性能評価
- モデルの性能評価
モデルの編集
- モデルの編集
Neural Field
- Neural Field
Transfer Learning / 転移学習
- Transfer Learning / 転移学習
Small Data
- Small Data
Calibration
Expectation Consistency / EC / 2023
- Expectation consistency for calibration of neural networks
- [2023]
- arxiv.org
Probabilistic Embedding
データを「点」ではなく「確率分布」として埋め込む「確率埋め込み」.
- Probabilistic Embeddings Revisited
- [2022]
- arxiv.org
世界モデル
- ChatGPTの中の"世界モデル"
Uncertainty Estimation
Masksembles / 2020
DNN における予測の信頼性を推定することに焦点を当てた研究.
具体的には、不確実性推定のための新しい手法であるMasksemblesを紹介し、その性能を評価.
Masksemblesは、不確実性推定の既存の主要な二つの手法であるDeep EnsemblesとMC-Dropoutの利点を組み合わせることを目的としている.
Deep Ensemblesは信頼性が高いものの計算コストが高く、MC-Dropoutはコストは低いものの信頼性が低いという問題があり、Masksemblesはバイナリマスクの固定プールを使用し、その重複を制御することで、両者の長所を活かし、Deep Ensemblesと同等の性能をより低い計算コストで達成できると主張.
実験は、CIFAR10とImageNetという広く使用されているデータセットで行われ、MasksemblesがMC-Dropoutよりも優れており、Deep Ensemblesに匹敵する性能を示すことが検証されている.
- Masksembles for Uncertainty Estimation
- [2020]
- arxiv.org
https://t.co/Z9Hccp1jjy
— akira (@AkiraTOSEI) August 13, 2021
不確実性の算出には、アンサンブルが用いられるがコストが高い。そこでマスクを使うことで、モデルの結合を擬似的に操作することでアンサンブルする手法を提案。ImageNetとCIFAR-10で効果を確認した。 pic.twitter.com/wPL1pWEFMh
Geometric Deep Learning
- Geometric Deep Learning
モデル形式
深層学習のアルゴリズムにおける分類について.
Auto Regression Model / 自己回帰モデル
- Auto Regression Model / 自己回帰モデル
Generative Model / 生成モデル
- Generative Model / 生成モデル
GAN
タスク
- タスク一覧 #まとめ編
データ分野
自然言語処理
- 自然言語処理
- 深層学習を用いたアルゴリズム
- yhayato1320.hatenablog.com
音声解析
- 音声解析
- 深層学習を用いたアルゴリズム
- yhayato1320.hatenablog.com
時系列解析
- 時系列解析
- 深層学習を用いたアルゴリズム
- yhayato1320.hatenablog.com
画像処理
- 画像処理
- 深層学習を用いたアルゴリズム
- yhayato1320.hatenablog.com
テーブルデータ解析
- テーブルデータ解析
- 深層学習を用いたアルゴリズム
- yhayato1320.hatenablog.com
サービス
- github.com
- AI を利用したサービスのまとめ
参考
On generalization bounds for deep networks based on loss surface implicit regularization
- [2022]
- arxiv.org
- 深層学習が過学習を起こさない原理を、ニューラルネットワークがエネルギー曲面上で滞留する数学的理論を開発して説明した
- 深層学習が大自由度にも関わらず過学習しない原理は長年の未解明点であり、これを説明する理論を開発した
- 深層学習を効率的に制御するための理論の発展や、アルゴリズム開発・ネットワーク設計などへの工学的応用が期待される
- www.u-tokyo.ac.jp
Modular Deep Learning
- [2023]
- arxiv.org
The Little Book of Deep Learning
書籍
-
- 5 ニューラルネットワーク
- 5.1 フィードフォワードネットワーク
-
- 5 ニューラルネットワーク
-
- 12 ニューラルネットワーク 画像認識トレーニング
- [asin:B01HGIPIAK:detail]
ゼロから作る Deep Learning
- 3 ニューラルネットワーク
- 3.1 パーセプトロンからニューラルネットワークへ
- 3.2 活性化関数
- 4 ニューラルネットワークの学習
- 8 ディープラーニング
-
- 3 ニューラルネットワーク
これならわかる深層学習入門
Web サイト
Deep Learning: A Survey of Surveys
Understanding Deep Learning
高速な深層学習モデルアーキテクチャ2023
深層学習の数理
数学者が書いた深層学習講義
-
- 深層学習のためのPython、NumPy講座や、教師あり学習入門、教師なし学習入門、タンパク質の立体構造予測原理の入門講座などすべてGoogle Colabで体験しながら学べる
- github.com
aman.ai
- aman.ai
- 深層学習の手法が幅広くまとまっている
動画
MIT Introduction to Deep Learning | 6.S191
MITの深層学習の動画リスト
Deep Learning: CS 182 Spring 2021


