Este artículo presenta los resultados de un análisis comparativo de estrategias de gestión de historiales de contexto extensos en un agente de ingeniería de software (SWE) basado en modelos de lenguaje (LLM) a gran escala. Comparamos métodos de resumen basados en LLM existentes, como OpenHands y Cursor, con el enmascaramiento de observaciones, un método que simplemente ignora las observaciones previas, utilizando diversas configuraciones de modelo en el conjunto de datos verificado de SWE-bench. Observamos que la estrategia de enmascaramiento de observaciones logró tasas de resolución de problemas similares o ligeramente superiores a las de los métodos de resumen basados en LLM, a la vez que redujo el coste a la mitad. Por ejemplo, en el modelo Qwen3-Coder 480B, el enmascaramiento de observaciones mejoró la tasa de resolución de problemas del 53,8 % al 54,8 %, logrando un rendimiento similar al del resumen LLM a un coste menor. Este estudio sugiere que, al menos en los entornos de SWE-agent y SWE-bench Verified, la gestión de contexto más eficaz y eficiente podría ser el enfoque más sencillo. Para garantizar la reproducibilidad, publicamos el código y los datos.