본 논문은 데이터가 부족한 의료, 프라이버시, HCI와 같은 분야에서 대규모 언어 모델(LLM)을 사용하여 합성 페르소나를 생성하는 과정에서 소수자 공동체의 정체성이 어떻게 표현되는지 조사합니다. GPT4o, Gemini 1.5 Pro, Deepseek 2.5 세 가지 LLM을 통해 생성된 1512개의 합성 페르소나를 면밀히 분석하고 어휘 분석 및 매개변수화된 창의성 프레임워크를 활용하여 인간이 작성한 응답과 비교 분석합니다. 그 결과, LLM이 인종적 특징을 과도하게 부각하고, 문화적으로 코드화된 언어를 과다 생성하며, 문법적으로는 정교하지만 서술적으로는 단순한 페르소나를 구성하는 경향을 발견했습니다. 이러한 패턴은 고정관념, 이국화, 삭제, 자애로운 편향 등의 사회기술적 피해로 이어지며, 표면적으로 긍정적인 서술로 인해 종종 은폐됩니다. 본 논문은 이 현상을 알고리즘적 타자화로 정의하며, 소수자의 정체성이 과도하게 눈에 띄지만 진정성이 떨어지는 현상으로 규정합니다. 마지막으로, 서술 인식 평가 지표와 공동체 중심 검증 프로토콜 설계에 대한 권고를 제시합니다.