본 논문은 대규모 언어 모델(LLM)을 대상으로 개인정보(PII) 추출 공격을 평가하기 위한 종합적인 벤치마크인 PII-Scope를 소개합니다. 다양한 위협 환경에서 최첨단 PII 추출 공격 방법론을 평가하고, 효과에 중요한 여러 하이퍼파라미터(예: 데모 선택)를 밝혀냄으로써 이러한 공격에 대한 더 깊은 이해를 제공합니다. 반복적이고 다양한 질의와 반복적인 학습을 활용하는 고급 적대적 전략을 사용하는 PII 공격을 탐구하여 더 현실적인 공격 시나리오로 연구를 확장합니다. 광범위한 실험을 통해 기존의 단일 질의 공격에서는 PII 유출을 상당히 과소평가하고 있음을 보여주며, 정교한 적대적 기능과 제한된 질의 예산을 사용하면 사전 훈련된 모델을 대상으로 PII 추출률이 최대 5배까지 증가할 수 있음을 보여줍니다. 또한 미세 조정된 모델에서 PII 유출을 평가하여 사전 훈련된 모델보다 유출에 더 취약함을 보여줍니다. 전반적으로 본 연구는 현실적인 위협 시나리오에서 PII 추출 공격에 대한 엄격한 경험적 벤치마크를 확립하고 효과적인 완화 전략을 개발하기 위한 강력한 기반을 제공합니다.