# Seeing Like an AI: How LLMs Apply (and Misapply) Wikipedia Neutrality Norms

### 저자

Joshua Ashkinaze, Ruijia Guan, Laura Kurek, Eytan Adar, Ceren Budak, Eric Gilbert

### 💡 개요

본 연구는 대규모 언어 모델(LLM)이 위키피디아의 중립적 시각(NPOV) 정책에 따라 편향된 편집을 탐지하고 수정하는 능력을 평가했습니다. LLM은 편향 탐지에 어려움을 겪었으며, 편향 제거 시에는 높은 회수율을 보였으나 낮은 정밀도를 나타냈습니다. 흥미롭게도 일반 사용자들은 LLM의 수정본을 위키피디아 편집자들의 수정본보다 더 중립적이고 유창하다고 평가했습니다.

### 🔑 시사점 및 한계

- LLM은 위키피디아 편집자가 제시한 NPOV 규칙을 단순히 적용하는 것을 넘어, 때로는 더 포괄적으로 규칙을 적용할 수 있으나, 비NPOV 관련 변경(예: 문법 수정)도 함께 수행하는 경향이 있습니다.

- LLM의 수정본은 일반 대중에게는 더 중립적이고 유창하게 느껴질 수 있지만, 이는 전문가 커뮤니티의 규범과 차이가 있을 수 있음을 시사합니다.

- LLM이 편집자의 역할을 수행할 경우, 편집자의 주체성을 약화시키고, 모델이 추가한 내용 검증 등으로 인해 중재자(moderator)의 업무량을 증가시킬 수 있습니다.

---

[PDF 보기](https://arxiv.org/pdf/2407.04183)

For the site tree, see the [root Markdown](https://slashpage.com/haebom.md).
