본 논문은 상용 대규모 언어 모델(LLM)을 이용한 어셈블리 코드 디옵퓨스케이션(deobfuscation)에 대한 최초의 종합적인 평가를 제시합니다. 7개의 최첨단 LLM을 네 가지 난독화 시나리오(가짜 제어 흐름, 명령어 치환, 제어 흐름 평탄화, 그리고 이들의 조합)에 대해 테스트한 결과, 모델별 성능 차이가 크게 나타났습니다. 자율적인 디옵퓨스케이션부터 완전한 실패까지 다양한 결과가 관찰되었으며, 이러한 차이를 설명하기 위해 추론 깊이, 패턴 인식, 노이즈 필터링, 컨텍스트 통합의 네 가지 차원을 기반으로 하는 이론적 프레임워크를 제안합니다. 또한, 술어 오해석, 구조적 매핑 오류, 제어 흐름 오해석, 산술 변환 오류, 상수 전파 오류 등 다섯 가지 오류 패턴을 식별하여 LLM 코드 처리의 근본적인 한계를 밝혔습니다. 가짜 제어 흐름(저항력 낮음), 제어 흐름 평탄화(저항력 중간), 명령어 치환/조합 기법(저항력 높음)의 세 가지 저항 모델을 제시하였으며, 조합 기법에 대한 전반적인 실패는 정교한 난독화가 고급 LLM에도 효과적임을 보여줍니다. 결론적으로 특정 리버스 엔지니어링 작업에 대한 전문성 장벽을 낮추는 동시에 복잡한 디옵퓨스케이션에는 인간의 지도가 필요한 인간-AI 협업 패러다임을 제안합니다.