Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

DecompileBench: A Comprehensive Benchmark for Evaluating Decompilers in Real-World Scenarios

Created by
  • Haebom

저자

Zeyu Gao, Yuxin Cui, Hao Wang, Siliang Qin, Yuanda Wang, Bolun Zhang, Chao Zhang

개요

DecompileBench는 역공학 워크플로우에서 디컴파일러의 효과적인 평가를 가능하게 하는 최초의 포괄적인 프레임워크입니다. 기존의 합성 마이크로 벤치마크나 주관적인 인간 평가에 중점을 둔 접근 방식과 달리, DecompileBench는 실제 환경의 요구사항인 의미적 충실도와 분석가의 사용성에 초점을 맞춥니다. 실제 프로그램(130개 프로그램에서 추출한 23,400개 함수)을 사용한 실제 함수 추출, 런타임 인식 검증, 그리고 LLM-as-Judge를 사용한 자동화된 인간 중심 평가라는 세 가지 주요 구성 요소를 통해 이를 달성합니다. 6개의 산업용 디컴파일러와 6개의 최신 LLM 기반 접근 방식을 비교 분석하여, LLM 기반 방법이 기능 정확성은 52.2% 낮지만 코드 이해도 측면에서 상용 도구를 능가함을 보여줍니다. DecompileBench는 오픈소스로 공개되어 디컴파일러 연구 발전과 보안 전문가의 정보에 입각한 도구 선택을 지원합니다.

시사점, 한계점

시사점:
LLM 기반 디컴파일러가 코드 이해도 측면에서 기존 상용 도구를 능가하는 잠재력을 보여줌.
실제 환경의 요구사항을 고려한 포괄적인 디컴파일러 평가 프레임워크 DecompileBench 제시.
DecompileBench의 오픈소스 공개를 통해 디컴파일러 연구 및 도구 선택의 발전에 기여.
역공학 작업에서 인간 중심의 접근 방식의 중요성을 강조.
한계점:
LLM 기반 방법의 기능 정확성이 상용 도구보다 52.2% 낮음.
평가 프레임워크의 성능은 사용된 LLM과 실제 프로그램의 특성에 영향을 받을 수 있음.
DecompileBench의 평가 결과가 모든 유형의 역공학 작업에 일반화될 수 있는지에 대한 추가 연구 필요.
👍