Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

LM-Searcher: Cross-domain Neural Architecture Search with LLMs via Unified Numerical Encoding

Created by
  • Haebom

作者

Yuxuan Hu, Jihao Liu, Ke Wang, Jinliang Zhen, Weikang Shi, Manyuan Zhang, Qi Dou, Rui Liu, Aojun Zhou, Hongsheng Li

概要

この論文では、大規模言語モデル(LLM)を活用して、さまざまなタスクに適用できるニューラルネットワーク構造探索(NAS)フレームワークであるLM-Searcherを提案します。従来のLLMベースのNASアプローチは、プロンプトエンジニアリングとドメイン固有のチューニングに大きく依存する制限がありましたが、LM-Searcherはドメイン固有の適応なしにさまざまなドメインでニューラルネットワーク構造の最適化を実行します。この目的のために、ニューラルネットワーク構造のための汎用数値文字列表現であるNCodeを使用して、クロスドメインアーキテクチャのエンコードとナビゲーションを可能にします。さらに、NASの問題をランク付けタスクとして再構築し、新しい剪定ベースの部分空間サンプリング戦略から派生した指示チューニングサンプルを使用して、候補プールから高性能アーキテクチャを選択するようにLLMをトレーニングします。さまざまなアーキテクチャとパフォーマンスのペアを含む洗練されたデータセットを使用して、強力で移行可能な学習を促進します。広範な実験は、LM-Searcherがドメイン内(例えば、画像分類のためのCNN)とドメイン外(例えば、分割と生成のためのLoRA構成)操作の両方で競争力のあるパフォーマンスを達成することを示し、柔軟で一般化可能なLLMベースのアーキテクチャナビゲーションのための新しいパラダイムを提示します。データセットとモデルはhttps://github.com/Ashone3/LM-Searcherで公開される予定です。

Takeaways、Limitations

Takeaways:
ドメイン固有の適応なしに様々なドメインにおけるニューラルネットワーク構造の最適化を可能にする新しいLLMベースNASフレームワークの提示
汎用数値文字列表現であるNCodeを活用したクロスドメインアーキテクチャのエンコードとナビゲーション
剪定ベースの部分空間サンプリング戦略による効率的なアーキテクチャ探索
ドメイン内とドメイン外の両方で競争力のあるパフォーマンスを達成
再現性のためにコードとデータを公開
Limitations:
提案されたNCode表現方式の一般化性能と限界に関するさらなる分析が必要
さまざまなタスクの汎用性をさらに高めるためのさらなる研究が必要
剪定に基づく部分空間サンプリング戦略の最適化と改善の余地
LLMの性能への依存度が高く、LLMの限界がLM-Searcherの性能に影響を与える可能性がある
👍