본 논문은 머신러닝 알고리즘 학습에 사용되는 데이터의 민감한 정보로 인한 개인정보 침해 문제를 다룹니다. $k$-anonymity, $\ell$-diversity, $t$-closeness 와 같은 익명화 기법이 개인 식별을 어렵게 하여 개인정보 보호 문제를 해결하는 실용적인 방법으로 제시되었지만, 이러한 기법들이 머신러닝의 공정성에 미치는 영향에 대한 연구는 부족합니다. 본 연구는 다양한 익명화 기법들이 개인 및 집단 공정성 지표에 미치는 영향을 정량적으로 분석합니다. 그 결과, 익명화는 집단 공정성 지표를 최대 4자릿수까지 저하시킬 수 있지만, 유사성 기반 개인 공정성 지표는 입력 데이터의 동질성 증가로 인해 개선되는 경향을 보이는 것을 밝혔습니다. 다양한 개인정보 설정 및 데이터 분포에 걸쳐 익명화 수준을 분석하여 개인정보 보호, 공정성, 유용성 간의 상충 관계에 대한 중요한 통찰력을 제공하고, 책임감 있는 AI 개발을 위한 실행 가능한 지침을 제시합니다. 코드는 공개적으로 제공됩니다.