본 논문은 영어 중심의 오픈 도메인 대화 에이전트 연구의 한계를 극복하기 위해, 다국어 오픈 도메인 대화 데이터 생성을 위한 새로운 파이프라인을 제안합니다. 대규모 언어 모델(LLM)의 instruction-tuning 기능을 활용하여, 하나의 소스 언어를 기반으로 여러 타겟 언어의 대화 데이터를 생성합니다. 명시적인 기계 번역을 배제하여 언어 고유의 특징을 유지하고, PersonaChat 데이터셋에 본 방법론을 적용합니다. 또한, 대화의 유형을 나타내는 발화 이벤트(speech events)와 대화의 전제 조건을 나타내는 공통 지식(common ground) 개념을 추가하여 생성된 대화의 자연스러움과 현실성을 높였습니다.