본 연구는 대규모 언어 모델(LLM)의 거부 행동이 사용자 신원에 따라 어떻게 달라지는지 조사한다. 특히 GPT-4V를 사용하여, 성별 정체성(남성, 여성, 논바이너리, 트랜스젠더)을 다르게 설정한 가상 인물을 통해 거부율의 차이를 분석한다. 연구 결과, 트랜스젠더 및 논바이너리 사용자의 경우, 유해하지 않은 맥락에서도 유의미하게 높은 거부율을 보였다. 이는 콘텐츠 분류 작업에서 AI 시스템의 불공정성을 시사하며, 알고리즘 공정성 연구의 중요성을 강조한다.