Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

The Complexity Trap: Simple Observation Masking Is as Efficient as LLM Summarization for Agent Context Management

Created by
  • Haebom

作者

Tobias Lindenbauer, Igor Slinko, Ludwig Felder, Egor Bogomolov, Yaroslav Zharov

概要

本論文は、大規模言語モデル(LLM)ベースのソフトウェアエンジニアリング(SWE)エージェントの長いコンテキスト履歴による高コスト問題を解決するために、従来のLLMベースの要約方法と単純な観察マスキング戦略を比較分析しました。さまざまなモデル構成(5つ)を使用した実験の結果、観察マスキング戦略がLLM要約方法と同等またはわずかに高い成功率を維持しながらコストを半分に削減することが確認されました。たとえば、Qwen3-Coder 480Bモデルでは、観察マスキングは成功率を53.8%から54.8%に向上させました。これは、SWEエージェントのコンテキスト管理において、最も効果的かつ効率的な方法が最も単純な方法である可能性があることを示唆している。本論文は再現性のためにコードとデータを開示する。

Takeaways、Limitations

Takeaways: LLMベースのSWEエージェントのコンテキスト管理では、単純な観察マスキング戦略がLLM要約よりも効率的で費用対効果が高いことを示しています。複雑なサマリー手法よりも簡単な方法でより良いパフォーマンスが得られることを示唆しています。
Limitations:この研究は特定のSWEエージェント(SWE-agent)とベンチマーク(SWE-bench Verified)に限定されており、他のエージェントやベンチマークの一般化の可能性は限られています。様々なLLMモデルと作業に関するさらなる研究が必要です。
👍