본 논문은 대규모 언어 모델(LLM)의 윤리적 문제점과 완화 전략, 그리고 그러한 전략의 구현 과정에서 발생하는 어려움을 체계적으로 분석한 연구이다. 39개의 기존 연구를 검토하여 LLM 사용과 관련된 핵심 윤리적 문제를 다섯 가지 윤리적 차원으로 분류하고, 제시된 완화 전략들을 조사하고 평가했다. 연구 결과, LLM의 윤리적 문제는 다차원적이며 상황에 따라 달라지며, 제안된 완화 전략들은 일부 문제점을 해결하지만 여전히 상당한 어려움이 남아있음을 밝혔다. 특히 의료 및 공공 행정과 같은 고위험 영역에서는 윤리적 문제가 완화 전략의 실질적인 구현을 방해하고 있으며, 기존 프레임워크는 변화하는 사회적 기대와 다양한 상황에 적응하지 못하는 한계를 보인다는 결론을 제시한다.