AgentBreederは、大規模言語モデル(LLM)をマルチエージェントシステムにスキャフォールドして複雑なタスクのパフォーマンスを向上させますが、これらのスキャフォールディングの安全性の影響を徹底的に探求していないことに着目して、マルチターゲット自己改善進化検索によるスキャフォールドナビゲーションフレームワークを紹介します。 AgentBreederは、広く知られている推論、数学、および安全性ベンチマークで見つかった足場を評価し、人気のある基本モデルと比較します。 「ブルー」モードでは、安全性のベンチマーク性能が平均79.4%向上し、能力スコアを維持または向上させました。 「赤」モードでは、能力の最適化と同時に敵対的に弱い足場が現れました。この研究は、マルチエージェントスキャフォールディングの危険性を示し、それを軽減するためのフレームワークを提供します。