本論文では、さまざまな背景知識を持つ読者が専門文書を理解できるように、専門用語の検出と説明をパーソナライズする方法について説明します。従来のユーザー固有の微調整は多くの注釈作業とコンピューティングリソースを必要とするため、本論文では効率的でスケーラブルなパーソナライズ戦略を研究します。具体的には、オープンソースモデルにLow-Rank Adaptation(LoRA)を適用する軽量微調整と推論の時点でモデルの動作を調整するパーソナライゼーションプロンプトの2つの戦略を探り、制限された注釈データと非マップ学習方式のユーザーバックグラウンド信号を組み合わせたハイブリッドアプローチも研究します。実験の結果、パーソナライズされたLoRAモデルは、GPT-4よりF1スコアで21.4%高い性能を示し、最高性能のOracleベースモデルより8.3%高い性能を達成しました。また、注釈付きトレーニングデータの10%しか使用していないが、同様の性能を示し、資源制約環境でも実用性を実証しました。