본 논문은 Vision-Language Model(VLM)이 훈련 데이터로부터 물려받는 사회적 편견, 특히 성별 표현에 주목하여, 차별을 인지하는 방식의 공정성 개입 방안을 제시합니다. 기존의 공정성 접근 방식이 모든 집단에 동일한 처우를 강요하는 데 반해, 본 연구는 중립성이 요구되는 상황과 집단별 특성이 정당하게 보존되어야 하는 상황을 구분하는 차별 인지적 접근을 제안합니다. 이미지 캡셔닝 및 텍스트-투-이미지 생성에 대한 차별 인지적 성별 공정성 문제를 공식화하고, 훈련이 필요 없는 프레임워크인 BioPro (Bias Orthogonal Projection)를 제안합니다. BioPro는 반사실적 임베딩을 통해 저차원 성별 변화 서브스페이스를 식별하고, 투영을 통해 성별 관련 정보를 선택적으로 중립화합니다. 실험 결과, BioPro는 중립적인 경우의 성별 편향을 효과적으로 줄이는 동시에 명시적인 경우의 성별 충실도를 유지하며, 더 나아가 장면 밝기와 같은 연속적인 편향 변수에도 일반화될 수 있음을 보여줍니다.