본 논문은 대규모 언어 모델(LLMs)의 컨텍스트 내 학습(ICL) 능력이 베이지안 프레임워크와 일치하는 구조적 추론을 수행하는지, 아니면 패턴 매칭에 의존하는지 조사한다. 편향된 동전 던지기라는 통제된 설정을 사용하여, (1) LLMs는 종종 편향된 사전 확률을 가지며, 제로샷 설정에서 초기 차이를 야기하고, (2) 컨텍스트 내 증거가 명시적인 편향 지시보다 우선하며, (3) LLMs는 대체로 베이지안 사후 확률 업데이트를 따르지만, 그 차이는 주로 잘못 보정된 사전 확률 때문이며, 잘못된 업데이트 때문은 아니고, (4) 주의 크기는 베이지안 추론에 미미한 영향을 미친다는 것을 발견했다. 충분한 편향된 동전 던지기 데모를 ICL을 통해 제공하면, LLMs는 베이지안 방식으로 사전 확률을 업데이트한다.