본 논문은 문맥 내 학습(ICL)이 사전 학습된 레이블 의미를 재정의할 수 있는지, 아니면 기존 의미론적 백본을 단지 개선하는지에 대한 문제를 다룬다. 저자들은 LLM을 프롬프트 유도 분류기로 취급하고, 자연스러운 시연(정확한 레이블)과 반전된 시연(체계적으로 레이블 의미를 뒤집음) 하에서의 동작을 비교한다. ICL 동작을 세 가지 정렬 지표(진실, 사전, 프롬프트 정렬)로 분해하고, 뒤집힌 의미론 하에서의 정확도로 정의되는 의미론적 재정의율을 도입한다. 8개의 분류 작업과 8개의 오픈 소스 LLM(1-12B 매개변수)에 걸쳐, 의미론적 앵커 관점에 대한 일관된 증거를 발견한다.