Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

The Thinking Therapist: Training Large Language Models to Deliver Acceptance and Commitment Therapy using Supervised Fine-Tuning and Odds Ratio Policy Optimization

Created by
  • Haebom

저자

Talha Tahir

개요

본 연구는 소규모 개방형 대규모 언어 모델(LLM)인 Llama-3.2-3b-Instruct를 활용하여 수용 및 책임 치료(ACT)를 제공하는 능력에 미치는 사후 훈련 방법론과 명시적 추론의 영향을 조사했습니다. Mistral-Large로 생성된 합성 ACT 대본을 사용하여 지도 학습 미세 조정(SFT)과 승산비 정책 최적화(ORPO)라는 두 가지 방법으로 모델을 훈련시켰으며, 각각 명시적 사고 과정(COT) 추론 단계를 포함하는 경우와 포함하지 않는 경우를 비교했습니다. ORPO 기반 모델은 ACT 충실도 및 치료적 공감 측면에서 SFT 및 기본 Instruct 모델보다 성능이 월등히 뛰어났습니다. COT의 효과는 조건부였는데, SFT 모델의 성능 향상에 기여했지만, ORPO 또는 Instruct 기반 모델에는 유의미한 이점을 제공하지 못했습니다. ORPO의 우수성은 '내용' 모방이 아닌 치료 '과정'을 학습하는 능력에서 기인하는 것으로 추정됩니다.

시사점, 한계점

시사점:
승산비 정책 최적화(ORPO)를 통해 소규모 LLM에 ACT 역량을 효과적으로 주입할 수 있음을 보여줍니다.
명시적 추론(COT)의 유용성은 기본 훈련 패러다임에 크게 의존함을 시사합니다.
ORPO는 ACT의 핵심인 치료 과정을 학습하는 데 더 효과적임을 보여줍니다.
COT은 모방을 통해 훈련된 모델에 필요한 발판 역할을 합니다.
한계점:
연구는 합성 ACT 대본을 사용했으므로 실제 임상 환경에서의 일반화 가능성에 대한 추가 연구가 필요합니다.
LLM 심사관을 사용하여 성능을 평가했으므로 인간 심사관의 평가와의 차이를 확인할 필요가 있습니다.
연구에 사용된 LLM의 크기가 상대적으로 작으므로, 더 큰 LLM에 대한 추가 연구가 필요합니다.
👍