본 논문은 민감한 환경에서 점점 더 많이 사용되는 거대 언어 모델(LLM)에 대한 지문 공격의 심각한 개인 정보 및 보안 위험을 다룹니다. 공격 및 방어 관점 모두에서 LLM 지문 생성에 대한 연구를 제시합니다. 강화 학습을 사용하여 쿼리 선택을 자동으로 최적화하는 공격 방법론을 통해 동일한 풀에서 무작위로 3개의 쿼리를 선택하는 것보다 3개의 쿼리만으로도 더 나은 지문 정확도를 달성합니다. 방어적 접근 방식은 보조 LLM을 통한 의미를 보존하는 출력 필터링을 사용하여 의미적 무결성을 유지하면서 모델 ID를 숨깁니다. 방어 방법은 테스트된 모델에서 지문 정확도를 낮추는 동시에 출력 품질을 유지합니다. 이러한 기여는 지문 도구 기능을 향상시키는 동시에 지문 공격에 대한 실용적인 완화 전략을 제공할 수 있는 잠재력을 보여줍니다.