본 논문은 개인 에이전트로 사용되는 대규모 추론 모델의 추론 과정에서 발생하는 개인 정보 유출 문제를 연구합니다. 기존에는 최종 출력과 달리 추론 과정은 내부적이고 안전하다고 여겨졌으나, 본 논문은 추론 과정이 자주 민감한 사용자 데이터를 포함하고 있으며, 프롬프트 주입 또는 출력으로의 우발적 유출을 통해 추출될 수 있음을 보여줍니다. 탐색 및 에이전트 평가를 통해 테스트 시점 계산 접근 방식, 특히 추론 단계 증가가 정보 유출을 증폭시킨다는 것을 실험적으로 증명합니다. 테스트 시점 계산 접근 방식의 비용을 증가시키면 모델이 최종 답변에서 더 신중해지지만, 더 장황하게 추론하고 추론 과정에서 더 많은 정보를 유출하는 결과를 초래합니다. 이는 추론이 유용성을 향상시키지만 개인 정보 보호 공격 표면을 확장한다는 핵심적인 긴장 관계를 드러냅니다. 따라서 모델의 출력뿐 아니라 내부적인 사고 과정에도 안전성 확보 노력을 기울여야 한다고 주장합니다.