본 논문은 최첨단 상용 대규모 언어 모델(LLM) 7개를 대상으로 어셈블리 코드 난독화 해제 성능을 포괄적으로 평가한 최초의 연구입니다. 4가지 난독화 시나리오(가짜 제어 흐름, 명령어 치환, 제어 흐름 평탄화, 그리고 이들의 조합)에 대한 실험 결과, 모델별 성능 차이가 극명하게 나타났으며, 완전한 자동 난독화 해제부터 완전한 실패까지 다양한 결과를 보였습니다. 논문에서는 추론 깊이, 패턴 인식, 노이즈 필터링, 맥락 통합이라는 4가지 차원에 기반한 이론적 프레임워크를 제시하여 이러한 성능 차이를 설명하고, 5가지 오류 패턴(술어 오해석, 구조 매핑 오류, 제어 흐름 오해석, 산술 변환 오류, 상수 전파 오류)을 밝혀 LLM 코드 처리의 근본적인 한계를 드러냅니다. 또한, 가짜 제어 흐름(저항도 낮음), 제어 흐름 평탄화(저항도 중간), 명령어 치환/복합 기법(저항도 높음)으로 구성된 3단계 저항 모델을 제시하며, 복합 기법에 대한 전반적인 실패는 정교한 난독화가 고급 LLM에도 효과적임을 보여줍니다. 결론적으로 특정 리버스 엔지니어링 작업에 대한 전문 지식 장벽을 낮추는 동시에 복잡한 난독화 해제에는 인간의 개입이 필요한 인간-AI 협업 패러다임을 제시하며, 새로운 기능 평가 및 내성 있는 난독화 기법 개발의 기초를 제공합니다.