본 논문은 의료 및 자율 주행과 같은 안전 중요 분야에서 편향되거나 불공정한 예측으로 이어지는 훈련 데이터의 허위 상관관계에 의존하는 심층 신경망 문제를 다룹니다. 기존의 편향 완화 기법은 처음부터 재훈련하거나 데이터 파이프라인을 재설계해야 하지만, 최근 머신 언러닝의 발전은 사후 모델 수정을 위한 유망한 대안을 제공합니다. 본 연구에서는 다양한 형태의 비전 모델 편향을 완화하기 위해 편향된 샘플이나 특징 표현을 선택적으로 제거하는 Bias-Aware Machine Unlearning 패러다임을 조사합니다. 개인 정보 보호를 고려한 언러닝 기술을 기반으로 Gradient Ascent, LoRA, Teacher-Student 증류 등 다양한 전략을 평가합니다. CUB-200-2011(자세 편향), CIFAR-10(합성 패치 편향), CelebA(미소 감지의 성별 편향) 세 가지 벤치마크 데이터셋에 대한 실험 분석을 통해 사후 언러닝이 하위 그룹 불균형을 상당히 줄일 수 있음을 보여줍니다. CUB-200에서 최대 94.86%, CIFAR-10에서 30.28%, CelebA에서 **97.37%**의 인구 통계적 동등성 개선을 달성했습니다. 이러한 성과는 정확도 손실이 최소화되고 유틸리티, 공정성, 품질, 개인 정보 보호에 대한 공동 평가에서 3가지 설정 모두에서 평균 0.62의 점수를 받은 방법을 통해 얻어졌습니다. 본 연구 결과는 전체 재훈련 없이 배포된 비전 시스템의 공정성을 향상시키기 위한 실용적인 프레임워크로서 머신 언러닝을 확립합니다.