Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

LLAMAFUZZ: Large Language Model Enhanced Greybox Fuzzing

Created by
  • Haebom

作者

Hongxiang Zhang, Yuyang Rong, Yifeng He, Hao Chen

概要

本稿では、構造化データを対象としたグレーボックスファジングのパフォーマンスを向上させるために、大規模言語モデル(LLM)を活用する方法について説明します。 LLMのデータ変換とフォーマットに関する事前の知識を活用して新しい有効入力を生成し、ペアリングされたバリエーションシードを介して構造化フォーマットとバリアント戦略を学習するように微調整します。提案するLLMベースのパージャーであるLLAMAFUZZは、Magmaのベンチマークとさまざまな実際のプログラムを対象に実験を行い、従来のパージャーと比較して優れた性能を示した。

Takeaways、Limitations

Takeaways:
LLMを活用して、構造化データファジングのパフォーマンスを大幅に向上させました。
さまざまなバグを発見し、コードカバレッジを増やすことに成功しました。
LLMの知識を活用してファジング効率を高める新しいアプローチを提示した。
Limitations:
論文に記載されている具体的なLimitationsは提示されていない。
👍