본 논문은 주관적인 과제에서 대규모 언어 모델(LLM)의 성능 향상을 위한 새로운 방법인 관점 전환을 통한 추론(Reasoning through Perspective Transition, RPT)을 제안합니다. 기존의 객관적인 과제와 달리 주관적인 과제에서는 문제에 대한 특정 관점이 맥락 이해 및 적절한 응답 생성에 중요한 역할을 합니다. RPT는 직접적인 관점, 역할 기반 관점, 제3자 관점 중에서 동적으로 최적의 관점을 선택하여 주관적인 문제를 해결하는 방법입니다. GPT-4, GPT-3.5, Llama-3, Qwen-2 등 다양한 LLM을 사용한 12가지 주관적인 과제에 대한 실험을 통해, RPT가 사고 연쇄 프롬프팅이나 전문가 프롬프팅과 같은 기존의 단일 고정 관점 기반 방법보다 우수한 성능을 보임을 보여줍니다. 이는 LLM이 다양한 문제에 대해 뉘앙스 있고 맥락에 적합한 응답을 제공하기 위해 관점을 적응시키는 복잡한 방식을 강조합니다.