본 논문은 민감한 도메인(예: 정신 건강)에서 대규모 언어 모델(LLM)의 개인 정보 보호 적응에 대한 연구를 제시합니다. 모델 유용성, 안전성 및 엄격한 기밀성을 균형 있게 유지하기 위해, Low-Rank Adaptation (LoRA)와 도메인 인식 차등 프라이버시(DP)를 통합하는 연합 미세 조정 프레임워크인 FedMentor를 제안합니다. FedMentor는 각 클라이언트(도메인)가 데이터 민감도에 비례하는 맞춤형 DP 노이즈 스케일을 적용하고, 서버는 유용성이 임계값 이하로 떨어질 경우 노이즈를 적응적으로 줄입니다. 세 개의 정신 건강 데이터 세트에서 실험을 수행하여, FedMentor가 표준 연합 학습(FL)보다 안전성을 향상시키고 독성을 낮추는 동시에 유용성을 유지함을 보여줍니다. 이 프레임워크는 단일 GPU 클라이언트에서 최대 17억 개의 매개변수를 가진 백본으로 확장 가능하며, 라운드당 173MB 미만의 통신만 필요합니다.