본 논문은 대규모 언어 모델(LLM) 기반 인공 에이전트가 인간과 협력 파트너로서 경쟁하는 상황에서 인간의 파트너 선택 전략과 AI 유발 경쟁 압력 하의 적응 과정을 연구한 결과를 제시합니다. 인간과 LLM 기반 봇으로 구성된 혼합 사회를 모사한 의사소통 기반 파트너 선택 게임을 통해 세 가지 실험(N=975)을 수행하였습니다. 실험 결과, 봇은 인간보다 친사회적이고 언어적으로 구분 가능했지만, 정체성이 숨겨진 경우 우선적으로 선택받지 않았습니다. 인간은 봇의 행동을 인간의 행동으로 오인하는 경향을 보였고, 반대로도 마찬가지였습니다. 봇의 정체성을 공개하자 봇의 초기 선택 확률은 감소했지만, 인간이 각 파트너 유형의 행동에 대해 학습할 수 있도록 하여 시간이 지남에 따라 인간보다 경쟁 우위를 점하게 되었습니다. 결론적으로, AI는 혼합 사회의 사회적 상호 작용을 재편성하고, 더 효과적이고 협력적인 혼합 시스템 설계에 대한 시사점을 제공합니다.