Bài báo này đề cập đến những rủi ro nghiêm trọng về quyền riêng tư và bảo mật của các cuộc tấn công lấy dấu vân tay trên các mô hình ngôn ngữ lớn (LLM), vốn ngày càng được sử dụng nhiều trong các môi trường nhạy cảm. Chúng tôi trình bày nghiên cứu về lấy dấu vân tay LLM từ cả góc độ tấn công và phòng thủ. Một phương pháp tấn công tự động tối ưu hóa việc lựa chọn truy vấn bằng học tăng cường đạt được độ chính xác lấy dấu vân tay tốt hơn chỉ với ba truy vấn so với việc chọn ngẫu nhiên ba truy vấn từ cùng một nhóm. Phương pháp phòng thủ sử dụng lọc đầu ra bảo toàn ngữ nghĩa thông qua các LLM phụ trợ để ẩn danh tính mô hình trong khi vẫn duy trì tính toàn vẹn ngữ nghĩa. Phương pháp phòng thủ làm giảm độ chính xác lấy dấu vân tay cho các mô hình được thử nghiệm trong khi vẫn duy trì chất lượng đầu ra. Những đóng góp này chứng minh tiềm năng nâng cao chức năng của các công cụ lấy dấu vân tay, đồng thời cung cấp các chiến lược giảm thiểu thiết thực chống lại các cuộc tấn công lấy dấu vân tay.