본 논문은 대규모 언어 모델(LLM)의 귀납적 추론 능력, 특히 불완전한 관측 하에서의 규칙 추출 및 유지 능력에 대한 연구를 제시합니다. 연구진은 잡음이 포함된 데이터로부터 규칙을 추론하는 "강건한 규칙 유도(Robust Rule Induction)" 과제를 제안하고, 관찰 다양화 및 실행 기반 피드백을 통해 추론 안정성을 향상시키는 "샘플 조향 규칙 개선(Sample-steered Rule Refinement, SRR)" 방법을 제시합니다. 산술, 암호화, 리스트 함수에 대한 실험을 통해 SRR이 다른 방법보다 잡음에 대한 성능 저하가 적다는 것을 보여주고, LLM이 잡음에 취약하며, 기억된 패턴에 의존하는 경향이 있음을 밝힙니다. 이러한 결과는 인간과 같은 귀납적 시스템 개발을 위한 중요한 경험적 증거를 제공합니다.