본 논문은 언어 모델의 데이터 편향 문제를 해결하기 위한 새로운 탈편향 프레임워크인 "FairFlow"를 제시합니다. FairFlow는 알려진 또는 알려지지 않은 편향과 관련된 데이터 샘플 또는 표현에 대해 예측을 보류하도록 학습함으로써 데이터 편향을 완화합니다. 핵심 구성 요소는 입력 샘플의 다양한 편향된 관점을 생성하는 데이터 및 모델 섭동 연산 집합과, 결과적으로 생성된 샘플의 편향된 관점으로부터 탈편향되고 강건한 표현을 학습하는 대조적 목표 함수입니다. 실험 결과, FairFlow는 기존의 탈편향 방법보다 우수한 성능을 보이며, 특히 도메인 외 및 어려운 테스트 샘플에 대해 도메인 내 성능 저하 없이 성능 향상을 보입니다.