본 논문은 대규모 언어 모델(LLM)이 코드 생성 및 이해와 같은 소프트웨어 공학 작업에서 뛰어난 성능을 보였지만 적대적 공격에 취약하다는 점을 연구합니다. 특히, 문자 수준에서 소스 코드를 조작하여 인간에게는 보이지 않지만 LLM의 동작을 오도하는 '보이지 않는' 공격에 LLM이 얼마나 취약한지 조사합니다. 코딩 재정렬, 보이지 않는 코딩 문자, 코드 삭제, 코드 동형 문자와 같은 네 가지 유형의 보이지 않는 문자 공격을 정의하고, 여러 LLM 모델에 대한 체계적인 평가를 수행하여 이러한 공격의 영향을 분석합니다. 결과는 LLM이 보이지 않는 코딩 방해에 취약하며, 방해의 정도와 모델 성능 사이에 일관된 역상관 관계가 있음을 보여줍니다.