Para abordar el alto costo de los agentes de ingeniería de software (SWE) basados en modelos de lenguaje a gran escala (LLM) debido a sus extensos historiales de contexto, este artículo compara y analiza los métodos de resumen existentes basados en LLM con una estrategia simple de enmascaramiento de observaciones. Experimentos con cinco configuraciones de modelo diferentes demuestran que la estrategia de enmascaramiento de observaciones reduce el costo a la mitad, manteniendo una tasa de éxito similar o ligeramente superior a la del método de resumen LLM. Por ejemplo, en el modelo Qwen3-Coder 480B, el enmascaramiento de observaciones mejoró la tasa de éxito del 53,8 % al 54,8 %. Esto sugiere que el enfoque más simple podría ser la forma más efectiva y eficiente de gestionar el contexto en agentes SWE. Para garantizar la reproducibilidad, el código y los datos se hacen públicos.