본 논문은 대규모 언어 모델(LLM)에서의 순응 효과(다수의 응답에 맞추려는 경향)를 심리학 실험을 바탕으로 연구한 결과를 제시합니다. 다양한 LLM을 대상으로 실험한 결과, 모든 모델이 지식 영역에 관계없이 초기 선택이나 정확성에 관계없이 다수의 의견에 순응하는 경향을 보이는 것을 확인했습니다. 특히, LLM은 자신의 예측에 대한 확신이 낮을수록 순응할 가능성이 더 높다는 것을 최초로 밝혔습니다. 또한, instruction-tuning된 모델은 순응에 덜 취약하고, 다수 의견의 자연스러움을 높일수록 순응이 증폭되는 등 순응에 영향을 미치는 요인들을 탐구하였습니다. 마지막으로, 순응을 완화하기 위한 'Devil's Advocate'와 'Question Distillation'이라는 두 가지 개입 방안을 제시했습니다.