9566 2022. 6. 7. 21:37
728x90

 정리하자면, CSPNet은 duplicate gradient information에 의해 발생하는 heavy inference computations를 감소시키려 합니다. 이를 위해 base layer의 feature map을 두 파트로 분할하고, 이 둘을 논문에서 제안하는 cross-stage hierarchy으로 결합합니다. 이 과정을 통하여 gradient information이 큰 상관관계 차이를 갖게 되고 CSPNet을 기존의 모델에 적용하여 연산량을 감소시키고 정확도까지 상승시킵니다.

 

     5-2) CSP(Cross-Stage Partial connections) : 기존의 CNN 네트워크의 연산량을 줄이는 기법. 원문에서 제안하는 CSP Net은 연산량을 20% 줄이면서도 MS COCO에서 높은 AP를 가진다고 한다. 요약하자면 학습할 때 중복으로 사용되는 기울기 정보를 없앰으로써 연산량을 줄이면서도 성능을 높인다. CPS를 소개하기 위해서, 원문 3장에서와 같이 DenseNet과 CSP-DenseNet을 비교하면서 설명하겠다. 

728x90