본 논문은 인간 피드백 강화 학습(RLHF)에서 사용자 선호도 개인 정보 보호 문제를 해결하기 위해 사용자 수준 레이블 차등적 개인 정보 보호(DP)를 통합한 새로운 프레임워크인 AUP-RLHF를 제안합니다. 기존 연구들이 주로 항목 수준의 개인 정보 보호에 초점을 맞춘 것과 달리, 본 연구는 RLHF에서 더욱 중요한 사용자 수준 개인 정보 보호에 중점을 둡니다. 기존의 랜덤 응답 알고리즘이 사용자 수준 설정에서는 최적이 아닌 성능을 보이는 것을 보이고, 사용자 수준 레이블 DP-RLHF에 대한 하한선을 설정하고 개선된 추정 오차를 달성하며 $(\varepsilon, \delta)$ 사용자 수준 개인 정보를 보장하는 AUP-RLHF 알고리즘을 개발합니다. 실험 결과, AUP-RLHF는 감정 생성 및 요약 작업에서 기존 기준 방법보다 우수한 성능을 보이며, 개인 정보 보호와 유용성 간의 더 나은 절충안을 제공함을 보여줍니다.