대규모 언어 모델(LLM)의 급속한 발전에 따라 AI for Good 애플리케이션에 대한 새로운 가능성이 열렸습니다. LLM이 온라인 커뮤니케이션을 중재하는 빈도가 증가함에 따라, 공감과 건설적인 대화를 장려할 수 있는 잠재력이 책임감 있는 AI 연구의 중요한 분야가 되었습니다. 본 연구는 LLM이 유해 콘텐츠를 감지하는 중재자 역할 뿐만 아니라 온라인 갈등을 이해하고 완화하는 중재자 역할을 수행할 수 있는지 탐구합니다. 우리의 프레임워크는 중재를 두 개의 하위 작업으로 분해합니다: LLM이 대화의 공정성과 감정적 역학을 평가하는 판단, 그리고 참가자를 해결 방향으로 이끌기 위해 공감적이고 완화적인 메시지를 생성하는 조종. 중재 품질을 평가하기 위해 대규모 Reddit 기반 데이터 세트를 구축하고 원칙 기반 채점, 사용자 시뮬레이션, 인간 비교를 결합한 다단계 평가 파이프라인을 제안합니다. 실험 결과 API 기반 모델이 중재 수행 시 추론 및 개입 정렬 모두에서 오픈 소스 모델보다 우수한 성능을 보였습니다. 본 연구 결과는 온라인 사회 중재를 위한 새로운 에이전트로서 현재 LLM의 가능성과 한계를 모두 강조합니다.