언어 모델이 전문적인 상황에서 자신의 AI 정체를 안정적으로 밝히지 못할 경우, 사용자는 모델의 능력 범위를 신뢰할 수 없다. 본 연구는 높은 위험이 따르는 분야에서 전문적인 페르소나를 부여받은 모델의 자기 투명성을 조사했다. 16개의 오픈 웨이트 모델(4B-671B 파라미터)을 대상으로 19,200번의 시험을 진행했다. 모델은 도메인별로 일관성이 부족했는데, 금융 자문가 페르소나의 경우 초기 30.8%의 공개율을 보인 반면, 신경외과 의사 페르소나의 경우 3.5%에 불과했다. 모델의 정체성은 파라미터 수보다 행동을 더 잘 예측했으며, 추론 최적화는 일부 모델에서 자기 투명성을 억제했다. 연구 결과는 투명성이 규모보다는 훈련 요인을 반영하며, 조직은 안전성 특성이 배포 환경으로 이전될 것이라고 가정할 수 없음을 시사한다.