Index
YOLO R とは
Explicit Knowledge / 形式知 と Implicit Knowledge / 暗黙知 を併用したネットワークを表現.
人間の普段の学習を「形式知」といい、無意識で行っている学習を「暗黙知」と呼んでいる.
人間の学習とCNNの学習
人間は、同じデータを様々な角度から分析できる.
一方、CNN (Machine Learning / Deep Learning) では、学習した一つのタスクした実行できない.
さらに正確にいうと、あるタスクで学習したことで得られる特徴は、
他のタスクでは、うまく適応できない.
暗黙知の利用
この問題に、対抗するために、「入力された情報」と「あるタスクの学習済みモデル」以外の情報である
Implicit Knowledge / 暗黙知 を利用する.
Implicit Knowledge / 暗黙知 の定義
ニューラルネットワークでの定義では、
とされることが多いが、ここでは、以下のように定義する.
- Explicit Knowledge / 形式知 : 実行するタスクに直接関係する知識 (入力データ、実行するタスクのモデル等)
- Implicit Knowledge / 暗黙知 : 実行するタスクと関係ない知識
暗黙知の導入の概要
では、どのように、暗黙知を利用するのか.
暗黙知の導入の詳細
暗黙知を効果的に導入するには、どうすかを考えたい.
ネットワークへの適合
CNN の定式化
従来の CNN を定式化すると
と考えられる.
これは、入力空間から、タスクを実行するための部分空間へ写像され、
その写像は、誤差関数が最小になるように、写像されるということである.
緩和を考える
上のような、誤差関数の設計では、変換した空間の情報では、ある一つのタスクのみに適合しているだけで、
複数の多数に適合できない.
そこで、複数のタスクに適合できるような空間への変換を目的とするために、緩和 / Relax を考慮したい.
緩和を考慮するために
誤差関数をモデル化することで、緩和を加え、複数のタスクに対応できるようにする.
形式知を定式化する方法はいくつか考えられる.
暗黙知のモデル化
はどのような関数になるのか?
- 恒等関数
- ニューラルネット
- Non Negative Matrix Factorization / NMF (行列の分解)
学習
暗黙知 は、最初は無いものと考え、タスクに影響がでないようにする.
推定
ネットワークアーキテクチャ
YOLO v4-CSP をベースに暗黙知を導入し、マルチタスクで学習する.
暗黙知の導入箇所
- Feature Alignment
- Prediction Refinement
- Multi Task Learning
タスク
- Object Detection
- Multi Label Image Classification
- Feature Embedding
参考
- You Only Learn One Representation: Unified Network for Multiple Tasks
- [2021]
- Abstract
- 1 Introduction
- 3 How implicit knowledge works?
- 4 Implicit knowledge in our unified networks
- 4.1 Formulation of implicit knowledge
- 4.2 Modeling implicit knowledge
- 4.3 Training
- 4.4 Inference
- 5 Experiments
- 5.1 Experimental setup
- arxiv.org
Web サイト
- You Only Learn One Representation: Unified Network for Multiple Tasks