편향된 ML 데이터셋으로 모델을 학습하면 테스트 시 이러한 편향이 증폭될 수 있는데, 이를 편향 증폭이라고 한다. 캡션에서 편향 증폭을 측정하기 위해, 기존에는 예측 가능성 기반 지표인 LIC(Leakage in Captioning)가 사용되었지만, 방향성을 파악하지 못하고, 어휘 대체 전략이 약하며, 공격자 모델에 민감하다는 한계가 있었다. 본 논문에서는 이러한 문제를 해결하기 위해 캡션에서 방향성 편향 증폭을 측정하고, 향상된 대체 전략을 사용하여 데이터셋 편향을 더 잘 추정하며, 공격자 모델에 덜 민감한 DPAC(Directional Predictability Amplification in Captioning)를 제안한다. COCO 캡션 데이터셋 실험을 통해 DPAC가 캡션의 편향 증폭을 측정하는 데 가장 신뢰할 수 있는 지표임을 입증한다.