この論文は、急増するテキストデータの手動分類の難しさを解決するために、ドメインに依存しない強力で効率的な生成モデルフレームワークLAGAMCを提案します。既存のラベルをアトミックシンボルとして扱う代わりに、あらかじめ定義されたラベルの説明を活用して、入力テキストに基づいてこれらの説明を生成するようにモデルを学習します。推論プロセスでは、微調整された文コンバータを使用して生成された説明を事前定義されたラベルと一致させます。クロスエントロピー損失と生成された文と事前定義されたターゲット記述の余弦類似度を組み合わせた二重目的損失関数を組み込むことで、意味的な整列と精度の両方を保証します。 LAGAMCは、パラメータの効率性とさまざまなデータセットの汎用性のため、実際のアプリケーションに適しています。実験の結果、評価されたすべてのデータセットで既存の最高性能を上回り、最も近い基準モデルと比較してMicro-F1で13.94%、Macro-F1で24.85%向上した性能を達成しました。