본 연구는 대규모 언어 모델(LLM)의 윤리적 일관성을 평가하기 위한 데이터셋 없는 폐쇄 루프 프레임워크인 Moral Consistency Pipeline (MoCoP)을 제시한다. MoCoP는 (i) 어휘 무결성 분석, (ii) 의미적 위험 추정, (iii) 추론 기반 판단 모델링을 결합하여 외부 감독 없이 윤리적 시나리오를 자율적으로 생성, 평가 및 개선한다. GPT-4-Turbo 및 DeepSeek에 대한 실험 결과는 MoCoP가 윤리적 행동을 효과적으로 포착하고, 윤리와 유해성 간의 강한 역 상관관계(-0.81)를 보이며, 응답 지연 시간과는 거의 관련이 없음을 보여준다. MoCoP는 윤리적 평가를 동적이고 모델에 독립적인 형태로 재구성하여 확장 가능하고 지속적인 감사를 위한 재현 가능한 기반을 제공하며, 자율 AI 시스템에서 계산 윤리 연구를 발전시킨다.