본 논문은 대규모 언어 모델(LLM)이 추론 시 개인 정보를 보존하지 못하는 문제를 해결하기 위해, 차등적 프라이버시(Differentially Private, DP)를 활용한 추론 메커니즘인 DP-Fusion을 제안합니다. DP-Fusion은 민감 정보가 포함된 도구나 데이터베이스로 증강된 LLM의 출력이 맥락 정보를 의도치 않게 노출하는 문제를 해결하고자 합니다. 제안하는 방법은 민감 토큰을 식별하고, 민감 토큰 없이 LLM을 추론하여 기준선을 생성한 후, 민감 토큰을 포함하여 추론하고, 최종 출력이 기준선 분포로부터 제한된 거리 내에 있도록 분포를 혼합하는 방식으로 작동합니다. DP-Fusion은 토큰 수준의 영향력 범위를 보장하며, 특히 개인 식별 정보(PII)와 같은 민감 토큰을 포함하는 문서를 패러프레이징하여 높은 텍스트 품질을 유지하면서 정보 유출을 방지하는 문서 프라이버시화에 초점을 맞춥니다. 프라이버시/유틸리티 트레이드오프는 엡실론($\epsilon$) 값으로 제어되며, $\epsilon=0$은 민감 토큰을 완전히 숨기고, 높은 값은 텍스트 품질을 위해 프라이버시를 희생합니다. DP-Fusion은 관련 DPI 방식보다 6배 낮은 혼란도(perplexity)를 달성하여 이론적 및 경험적 프라이버시를 상당히 향상시켰습니다.