본 논문은 대규모 언어 모델(LLM)에서의 컨텍스트 학습(ICL)의 비선형적 행동에 대한 이해를 높이기 위해, GPT-2 모델을 이용하여 상미분 방정식(ODE) 풀이를 ICL 설정 하에서 연구합니다. 표준 ODE 문제와 해를 순차적 프롬프트로 공식화하고, 두 가지 유형의 ODE에 대한 실험을 통해 GPT-2가 메타-ODE 알고리즘을 효과적으로 학습할 수 있으며, 오일러 방법과 비슷하거나 더 나은 수렴 동작을 보이고, 증가하는 데모 수에 따라 지수적 정확도 향상을 달성함을 보여줍니다. 또한, 모델은 분포 외(OOD) 문제에도 일반화되어 강력한 외삽 능력을 보여줍니다. 이러한 경험적 결과는 NLP에서 ICL의 메커니즘과 비선형 수치 문제 해결을 위한 잠재력에 대한 새로운 통찰력을 제공합니다.