Index
平均適合率 / Average Precision / AP
機械学習で利用する精度指標の一つ.
- 平均適合率 / Average Precision / AP #まとめ編
物体検出における AP
物体検出の評価指標としても利用される.
- 物体検出 #まとめ編
IoU を元に、物体検出の TP, FP, FN, TN を考える.
各予測した BB をスコア順に並べる.
最も高い IoU の値をとる正解 BB との値が 0.5 以上か、そうでないかを結びつける基準とする.
- 0.5 以上 : 正解 BB を予測していると考える.
- 0.5 より小さい : 正解 BB を予測できていないと考える.
- TP : 予測 BB がどれかの正解 BB と紐付いている
- FP : 予測 BB がどの正解 BB とも紐付いていない (誤検出)
- FN : 正解 BB がどの予測 BB とも紐付いていない (検出漏れ)
- TN : 正解 BB でないエリアが、予測 BB と紐付いていない
- 無限に考えれるため、定義しない
- 無限に考えれるため、定義しない
図に表すとこんなかんじ.
Precision / Recall は同様に計算できる.
- 混合行列 / Confusion Matrix
- 誤分類率 / 正解率
- TP / FP / FN / TN
- Recall / Precision
- yhayato1320.hatenablog.com
スコアが高い予測 BB 順に Precision / Recall を計算する.
しかし、通常とは計算方法が異なる.
これを元に、PR 曲線 (Recall を横軸、Precision を縦軸の図) を作成する.
AP は、PR 曲線下の面積に対応する.
mAP は、各クラスの AP の平均値 mean AP となる.
実装編
- 平均適合率 / Average Precision / AP #実装編
参考
書籍
- 画像認識
- 7 物体検出
- 7.7 物体検出の評価
- 7.7.2 平均適合率
- 7.7 物体検出の評価
- 7 物体検出
Web サイト
- 【物体検出】mAP ( mean Average Precision ) の算出方法