Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Using cognitive models to reveal value trade-offs in language models

Created by
  • Haebom

저자

Sonia K. Murthy, Rosie Zhao, Jennifer Hu, Sham Kakade, Markus Wulfmeier, Peng Qian, Tomer Ullman

개요

대규모 언어 모델(LLM)에서 가치 상충 관계를 해석하기 위한 도구가 부족하다는 점을 지적하며, 인지 과학의 "인지 모델"을 활용하여 LLM의 가치 상충 관계를 평가하는 연구를 소개한다. 특히, 예의 바른 언어 사용에 대한 인지 모델을 사용하여 모델의 추론 노력 정도와 강화 학습(RL) 사후 훈련 역학을 분석한다. 그 결과, 추론 모델의 기본 동작에서 정보적 효용성이 사회적 효용성보다 높게 나타났으며, 특정 목표의 우선순위를 정하도록 유도했을 때 이러한 패턴이 예측 가능한 방식으로 변화함을 확인했다. 또한, LLM의 훈련 역학 연구를 통해 기본 모델 및 사전 훈련 데이터 선택이 가치 변화에 큰 영향을 미치는 것을 발견했다. 제시된 프레임워크는 다양한 모델 유형에서 가치 상충 관계를 파악하고, 아첨과 같은 사회적 행동에 대한 가설을 생성하며, 모델 개발 과정에서 가치 간의 균형을 제어하는 훈련 방식을 설계하는 데 기여할 수 있다.

시사점, 한계점

시사점:
LLM의 가치 상충 관계를 평가하기 위한 새로운 프레임워크 제시.
모델의 추론 방식과 훈련 역학이 가치 균형에 미치는 영향 분석.
모델 훈련 방식을 통해 가치 균형을 제어할 수 있는 가능성 제시.
한계점:
구체적인 모델 및 훈련 방식에 대한 세부 정보 부족.
다른 사회적 행동에 대한 일반화 가능성 제한.
가치 상충 관계를 정량적으로 측정하는 방법에 대한 추가 연구 필요.
👍