# MM-MoralBench: A MultiModal Moral Evaluation Benchmark for Large Vision-Language Models

### 저자

Bei Yan, Jie Zhang, Zhiyuan Chen, Shiguang Shan, Xilin Chen

### 💡 개요

본 연구는 시각 정보를 활용하는 대규모 언어-시각 모델(LVLMs)의 윤리적 가치 정렬을 평가하기 위한 멀티모달 윤리 평가 벤치마크인 MM-MoralBench를 제안합니다. 합성된 시각적 맥락과 대화를 결합한 고유한 멀티모달 시나리오를 구축하여, 6가지 도덕적 기초 이론을 기반으로 모델의 윤리적 판단, 분류, 응답 능력을 평가합니다. 광범위한 실험 결과, 기존 LVLMs는 인간의 합의와 상당한 차이를 보이는 윤리적 편향을 나타내며, 일반적인 모델 개선으로는 윤리적 정렬 향상에 한계가 있음을 보여줍니다.

### 🔑 시사점 및 한계

- 시각 정보가 포함된 복잡한 윤리적 딜레마에 대한 LVLMs의 평가가 필요하며, 기존 텍스트 기반 벤치마크의 한계를 극복해야 함.

- LVLMs는 다양한 윤리적 기초 이론에 대해 편향된 판단을 나타내며, 이는 인간의 윤리적 가치와 일치하지 않을 수 있음.

- 모델 규모나 구조 개선만으로는 윤리적 정렬을 효과적으로 향상시키기 어려우며, 특화된 윤리적 정렬 전략이 필요함.

- "사고 패러다임(thinking paradigm)" 적용 시 과도한 사고로 인한 윤리적 맥락에서의 실패가 발생할 수 있음.

---

[PDF 보기](https://arxiv.org/pdf/2412.20718)

For the site tree, see the [root Markdown](https://slashpage.com/haebom.md).
