본 논문은 다수 에이전트 AI에서 현실적인 행동 제약 하에 사회적 협력을 모델링하는 핵심적인 과제를 다룬다. "신뢰"나 "도덕성"과 같은 경제학 및 윤리학의 기본 개념들은 종종 작동 기준이나 인지적 토대 없이 비형식적으로 정의되어, 인공 에이전트에서의 검증 및 구현에 제한이 있다. 본 논문은 영장류 행동, 유아 인지 및 경제 인류학의 수렴적 경험적 증거를 바탕으로, 개체 인식, 상호 신용, 비용-수익 민감성이라는 세 가지 인지적으로 최소한의 메커니즘으로 구성된 개념적 틀을 제안한다. 이 틀은 신뢰를 등급화된 인지적 기대치로 재구성하여, 인공 에이전트에서 상호 교환을 위한 시뮬레이션 가능한 기반을 제공하고, 확장 가능한 협력과 제도적 역동성의 하향식 출현을 가능하게 한다.