# RSAT: Structured Attribution Makes Small Language Models Faithful Table Reasoners

### 저자

Jugal Gajjar, Kamalasankari Subramaniakuppusamy

### 💡 개요

본 연구는 언어 모델이 표 기반 질문에 대한 답변 시, 어떤 셀이 어떤 추론 단계에 사용되었는지 검증할 수 없다는 문제를 해결하기 위해 RSAT 방법을 제안합니다. RSAT는 소형 언어 모델(SLM)이 표 근거를 기반으로 셀 수준의 인용을 포함한 단계별 추론을 생성하도록 훈련시킵니다. 이를 통해 추론의 충실도와 인용의 타당성을 크게 향상시켰습니다.

### 🔑 시사점 및 한계

- 소형 언어 모델(SLM)도 구조화된 출력과 강화 학습을 통해 높은 수준의 표 추론 충실도를 달성할 수 있음을 보여줍니다.

- 추론 과정에 인용을 통합하는 것이 후처리 방식보다 훨씬 효과적이며, 인용의 타당성과 추론의 충실도가 밀접하게 연관되어 있음을 시사합니다.

- 본 연구에서 제안된 faithfulness reward가 추론 충실도를 높이는 데 핵심적인 역할을 합니다.

- 아직 1B 파라미터 이하의 초소형 모델에 대한 검증이나 복잡한 표 구조에 대한 추론 능력 향상 등 추가적인 연구가 필요할 수 있습니다.

---

[PDF 보기](https://arxiv.org/pdf/2605.00199)

For the site tree, see the [root Markdown](https://slashpage.com/haebom.md).
