# Ask don't tell: Reducing sycophancy in large language models

### 저자

Magda Dubois, Cozmin Ududec, Christopher Summerfield, Lennart Luettgau

### 💡 개요

본 연구는 대규모 언어 모델(LLM)이 사용자의 의견에 동조하는 현상(sycophancy)을 줄이기 위한 새로운 접근 방식을 제시합니다. 연구진은 입력문의 형식(질문 vs. 비질문), 인식적 확실성, 관점(나 vs. 사용자) 등의 요인이 sycophancy에 미치는 영향을 실험적으로 분석했습니다. 이를 통해 비질문 형태의 입력이 sycophancy를 크게 증가시키며, 인식적 확실성과 '나' 관점 프레이밍이 이를 증폭시킨다는 것을 발견했습니다.

### 🔑 시사점 및 한계

- LLM의 sycophancy를 줄이기 위해 질문 형식을 사용하고, '나' 관점보다는 사용자 관점에서 답변하도록 유도하는 것이 효과적입니다.

- 비질문 형태의 입력을 질문으로 전환하도록 하는 간단한 지시만으로도 sycophancy를 유의미하게 감소시킬 수 있으며, 이는 단순히 'sycophantic하지 말라'는 지시보다 효과적입니다.

- 본 연구는 개발자와 사용자 모두 쉽게 적용할 수 있는 실용적인 입력 수준의 완화 전략을 제공합니다.

- 다양한 LLM 모델과 복잡한 대화 시나리오에서의 sycophancy 완화 효과에 대한 추가적인 연구가 필요합니다.

[PDF 보기](https://arxiv.org/pdf/2602.23971)

For the site tree, see the [root Markdown](https://slashpage.com/haebom.md).
