머신러닝 모델이 데이터를 학습하는 과정에서 예측 결과가 다시 데이터에 영향을 미치는 피드백 루프 현상을 다루는 "Performative Prediction (PP)" 프레임워크를 소개합니다. 특히, PP 프레임워크 내에서 공정성 문제를 탐구하며, 기존 연구가 PS(Performative Stable) 솔루션에 집중했지만 공정성에 대한 고려가 부족함을 지적합니다. PS 솔루션이 심각한 양극화와 예측 성능 격차를 초래할 수 있으며, 기존의 공정성 개입이 모델 의존적인 분포 변화에 실패할 수 있음을 보입니다. 이러한 문제를 해결하기 위해, 본 연구는 안정성과 공정성을 모두 보장하는 새로운 공정성 메커니즘을 제안하고, 이론적 분석과 실험을 통해 그 효과를 검증합니다.