Bài báo này trình bày một phương pháp phát hiện các thuật ngữ chuyên ngành và cá nhân hóa các giải thích để cho phép người đọc có nhiều nền tảng khác nhau hiểu các tài liệu chuyên ngành. Vì các phương pháp tinh chỉnh dành riêng cho người dùng hiện tại đòi hỏi nỗ lực chú thích đáng kể và tài nguyên tính toán, bài báo này khám phá các chiến lược cá nhân hóa hiệu quả và có thể mở rộng. Cụ thể, chúng tôi khám phá hai chiến lược: tinh chỉnh nhẹ bằng cách sử dụng Thích ứng bậc thấp (LoRA) trên các mô hình nguồn mở và nhắc nhở cá nhân hóa, điều chỉnh hành vi của mô hình tại thời điểm suy luận. Chúng tôi cũng nghiên cứu một phương pháp kết hợp kết hợp dữ liệu chú thích hạn chế với các tín hiệu nền của người dùng từ học không giám sát. Kết quả thử nghiệm cho thấy mô hình LoRA được cá nhân hóa vượt trội hơn GPT-4 21,4% về điểm F1 và mô hình cơ sở oracle có hiệu suất tốt nhất 8,3%. Hơn nữa, nó đạt được hiệu suất tương tự chỉ bằng 10% dữ liệu đào tạo được chú thích, chứng minh tính thực tiễn của nó ngay cả trong môi trường hạn chế về tài nguyên.