본 논문은 대규모 언어 모델(LLM) 기반 소프트웨어 엔지니어링(SWE) 에이전트에서 긴 컨텍스트 히스토리 관리 전략을 비교 분석한 연구 결과를 제시합니다. OpenHands나 Cursor와 같이 LLM 기반 요약을 사용하는 기존 방법과 단순히 이전 관찰을 무시하는 방법(observation-masking)을 SWE-bench Verified 데이터셋에서 다양한 모델 구성을 통해 비교 평가했습니다. 그 결과, observation-masking 전략이 LLM 요약 기반 방법과 비슷하거나 약간 더 높은 문제 해결률을 보이며, 비용은 절반 수준으로 줄이는 것을 확인했습니다. 예를 들어 Qwen3-Coder 480B 모델에서 observation-masking은 문제 해결률을 53.8%에서 54.8%로 향상시켰고, LLM 요약과 비슷한 성능을 더 낮은 비용으로 달성했습니다. 본 연구는 적어도 SWE-agent와 SWE-bench Verified 환경에서는 가장 효과적이고 효율적인 컨텍스트 관리는 가장 단순한 방법일 수 있음을 시사합니다. 재현성을 위해 코드와 데이터를 공개합니다.