本論文では,単一の大規模言語モデルを利用して,複数の論証マイニング作業を実行する方法を研究した。 19の既存の議論マイニングデータセットを統合形式に変換してマルチタスクデータセットを構築し、Meta AIのLlama-3.1-8B-Instructモデルを使用して、個々のタスクごとの微調整、マルチタスク同時微調整、および個々のタスクごとに微調整されたモデルのマージなど、さまざまなトレーニング戦略を探求します。実験の結果、タスクごとの微調整はすべてのタスクで個々のパフォーマンスを大幅に向上させ、マルチタスクの微調整はパフォーマンスを低下させることなく強力なパフォーマンスを維持し、効果的な遷移学習を実証します。最後に、モデルのマージは、マルチタスクの微調整に関連する高い計算コストを軽減しながら、競争力のあるパフォーマンスを提供する実行可能な方法であることを示しています。