본 논문은 다중 에이전트 환경에서 학습 및 효용 극대화 에이전트의 행동으로 인한 사회적 피해 문제를 다룬다. 특히, 인공 일반 지능(AGI) 에이전트가 목표 달성 과정에서 예측 못한 부정적 결과를 초래하는 문제를 해결하기 위해 시장 기반 메커니즘을 제안한다. 기존의 다중 에이전트 강화 학습과 메커니즘 설계보다 일반적인 접근 방식을 제시하며, (i) AIXI와 같은 역사 기반 일반 강화 학습 환경, (ii) 다양한 학습 전략과 계획 기간을 가진 에이전트를 고려한다. Paperclips 문제와 배출권 거래제를 통한 오염 통제 등의 응용 사례를 통해 제안된 시스템의 실용성을 보여준다.