Cet article présente les résultats d'une analyse comparative des stratégies de gestion de l'historique des contextes longs dans un agent d'ingénierie logicielle (SWE) basé sur un modèle de langage à grande échelle (LLM). Nous avons comparé les méthodes de résumé existantes basées sur le LLM, telles qu'OpenHands et Cursor, avec le masquage par observation, une méthode qui ignore simplement les observations précédentes, en utilisant diverses configurations de modèle sur l'ensemble de données vérifiées par SWE-bench. Nous avons constaté que la stratégie de masquage par observation obtenait des taux de résolution de problèmes similaires ou légèrement supérieurs à ceux des méthodes de résumé basées sur le LLM, tout en réduisant le coût de moitié. Par exemple, sur le modèle Qwen3-Coder 480B, le masquage par observation a amélioré le taux de résolution de problèmes de 53,8 % à 54,8 %, obtenant des performances similaires à celles du résumé LLM à un coût inférieur. Cette étude suggère que, au moins dans les environnements SWE-agent et SWE-bench Verified, la gestion du contexte la plus efficace et efficiente pourrait être l'approche la plus simple. Pour des raisons de reproductibilité, nous mettons le code et les données à disposition.