Detection Metrics 이해: IoU / mAP
YOLO나 DETR을 공부할 때 모델 구조만 보면 절반만 본 것이다. 실제로는 예측 박스가 얼마나 겹치는지, precision-recall 곡선이 어떤지, 전체 클래스 평균이 어떤지를 함께 봐야 한다.
즉 detection에서는 "정답 클래스를 맞혔다"만으로 충분하지 않다. 박스가 엉뚱한 위치를 가리키면 실제로는 쓸 수 없는 예측이기 때문에, 위치 정확도와 분류 정확도를 함께 평가하는 체계가 필요하다.
1. IoU
Intersection over Union은 예측 박스와 정답 박스가 얼마나 겹치는지 보는 값이다. 겹치는 영역이 클수록 IoU가 커진다.
2. Precision / Recall
precision은 예측한 것 중 맞은 비율, recall은 실제 정답 중 찾아낸 비율이다. detection에서는 confidence threshold를 바꾸며 둘의 관계를 본다.
3. AP / mAP
AP는 한 클래스의 precision-recall 곡선을 요약한 값이고, mAP는 여러 클래스의 AP 평균이다. 그래서 detection 논문에서는 단순 accuracy 대신 mAP를 주로 본다.
이 지표가 중요한 이유는 confidence threshold를 어떻게 두느냐에 따라 모델 성격이 달라지기 때문이다. 어떤 모델은 매우 조심스럽게 적게 예측하고, 어떤 모델은 많이 예측하면서 false positive도 늘릴 수 있는데, AP와 mAP는 이런 trade-off를 곡선 전체로 요약해 보여준다.
4. 왜 중요한가
- 박스 위치가 조금만 어긋나도 detection 품질은 달라진다.
- confidence threshold에 따라 precision-recall tradeoff가 달라진다.
- 모델 비교에서 구조보다 evaluation setup 차이가 결과 해석을 바꾸기도 한다.
면접에서는 "왜 mAP가 accuracy보다 낫나"를 묻는 경우가 많다. 이때 답의 핵심은 detection이 위치와 confidence threshold까지 함께 다루는 문제라서, 단일 정답률로는 모델 품질을 충분히 설명할 수 없다는 점이다.
5. 체크리스트
- IoU가 무엇을 측정하는가?
- 왜 detection은 accuracy보다 mAP를 많이 쓰는가?
- precision과 recall이 detection에서 어떻게 연결되는가?