Detection Metrics 이해: IoU / mAP

난이도: 중급

태그: vision,detection,iou,map,evaluation

객체 탐지는 "무엇이 있는가"만 맞히는 게 아니라 "어디에 있는가"까지 맞혀야 하므로, 분류보다 평가가 더 복잡하다.

YOLO나 DETR을 공부할 때 모델 구조만 보면 절반만 본 것이다. 실제로는 예측 박스가 얼마나 겹치는지, precision-recall 곡선이 어떤지, 전체 클래스 평균이 어떤지를 함께 봐야 한다.

즉 detection에서는 "정답 클래스를 맞혔다"만으로 충분하지 않다. 박스가 엉뚱한 위치를 가리키면 실제로는 쓸 수 없는 예측이기 때문에, 위치 정확도와 분류 정확도를 함께 평가하는 체계가 필요하다.

1. IoU

Intersection over Union은 예측 박스와 정답 박스가 얼마나 겹치는지 보는 값이다. 겹치는 영역이 클수록 IoU가 커진다.

2. Precision / Recall

precision은 예측한 것 중 맞은 비율, recall은 실제 정답 중 찾아낸 비율이다. detection에서는 confidence threshold를 바꾸며 둘의 관계를 본다.

3. AP / mAP

AP는 한 클래스의 precision-recall 곡선을 요약한 값이고, mAP는 여러 클래스의 AP 평균이다. 그래서 detection 논문에서는 단순 accuracy 대신 mAP를 주로 본다.

이 지표가 중요한 이유는 confidence threshold를 어떻게 두느냐에 따라 모델 성격이 달라지기 때문이다. 어떤 모델은 매우 조심스럽게 적게 예측하고, 어떤 모델은 많이 예측하면서 false positive도 늘릴 수 있는데, AP와 mAP는 이런 trade-off를 곡선 전체로 요약해 보여준다.

4. 왜 중요한가

면접에서는 "왜 mAP가 accuracy보다 낫나"를 묻는 경우가 많다. 이때 답의 핵심은 detection이 위치와 confidence threshold까지 함께 다루는 문제라서, 단일 정답률로는 모델 품질을 충분히 설명할 수 없다는 점이다.

5. 체크리스트